軍事武器結合人工智慧技術 聯合國再次向「殺人機器人」說不!

軍事武器結合人工智慧技術 聯合國再次向「殺人機器人」說不!

▲聯合國再次向「殺人機器人」說不。(圖/翻攝自機器人網)

【原文:《聯合國再次向「殺人機器人」說不!》,作者:蕭楓,智慧機器人網編輯整理】

文、圖/機器人網

據外媒報導, 4 月 9 日,聯合國《特定常規武器公約》政府專家小組在瑞士日內瓦召開會議,專項討論「殺人機器人」可能帶來的影響。據稱,此次的會議跟此前韓國科學技術學院宣布開發「殺人機器人」有關。

據了解,今年 2 月份,韓國科學技術學院宣布將與韓國防務公司 Hanwha Systems 聯合建立一個研究中心,專注於開發應用於軍事武器的人工智慧(AI)技術,以便在無人控制的情況下搜索並消除目標

消息一經宣布,就引起來全球眾多人工智慧專業人士的抵制。上週三, 50 多名來自全球 30 個國家的頂尖人工智慧研究員向韓國科學技術院發起抵制,他們表示將不再訪問韓國科學技術院,招待來自這所大學的訪客,或者與它的研究項目合作,直到該校承諾不開發無需人類控制的人工智慧武器為止。

發出呼籲的是人工智慧研究領域著名的澳大利亞學者 Toby Walsh ,近 60 名從事機器人研究的專家表示贊同。其中有最著名的 Geoffrey Hinton 教授、 Yoshua Bengio 教授和 JürgenSchmidhuber 教授。

人工智慧迅速發展給社會各個領域帶來深遠影響,對軍事作戰系統研發也帶來全新理念。然而,人工智慧界的專家學者及防務分析人士認為,機器人暴動僅是科幻小說式的終極噩夢,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵與否,才是人們亟須擔憂和討論的現實問題。

大多數專家學者一直認為,使用致命武器時,人應當是負責啟動的關鍵要素。對什麼樣的人工控制才是最適宜的討論還未結束,相關的政策制定又已被人工智慧技術的飛速發展甩在身後。隨著具有認知能力人工智慧係統的出現,更複雜的問題出現了。

新美國基金會研究人員、防務政策分析人士 Singer 在其著作《連線戰爭: 21 世紀機器人革命和衝突》中指出,地緣政治、知識前沿領域不斷前進的動力甚至是追求利益的科技企業,都是人工智慧發展不可阻擋的力量。簡單來說,大部分人現在最感到恐懼的是該不該讓能夠“思考”的人工智慧係統決定是否殺人。

新美國安全中心技術和國家安全項目主管 Scharre 表示,自主武器系統可能因代碼問題或駭客攻擊而失靈,機器人攻擊人類部隊,人類無法作出反應或局部局勢迅速升級的情況都有可能發生。自主武器系統的可靠性難以測試,會“思考”的機器系統可能以人類操控者從未想像到的方式行事。

美國國防部前副部長 Miller 認為,自主武器系統在戰事激烈的地區執行任務,讓機器全權負責的誘惑可能會難以抵制,技術上的可能總是讓人們作出利於形勢的選擇。

對於自主武器系統,人工智慧界的專家學者頻頻說「不」,拒絕進行相關領域的研發。例如,韓國科學技術院研製的機器人曾經贏得 2015 年美國國防部高級研究項目局機器人挑戰賽的冠軍。

儘管在遭到抵制數小時後,韓國科學技術院就回應稱其「並不打算參與致命武器系統和殺人機器人的開發」。韓國科學技術院校長 Sung-Chul Shin 亦表示,該校“相當清楚”人工智慧的倫理問題,他「再次重申,韓國科學技術院不會從事任何與人類尊嚴相違背的研究活動,包括無需人類控制的自主化武器。」並稱新的「國防和人工智慧融合研究中心」將專注於利用 AI 命令和控制系統,對大型無人駕駛潛水器進行導航,以及利用 AI 進行智慧飛行器訓練,追踪和識別物體等。

但發起此次抵制的 Toby Walsh 表示,在取消抵制前,他必須與所有簽署抵制信的研究員進行溝通。因為目前仍不清楚,當無人潛水艇在水下且無法通信時,人類如何能夠進行有效的控制。

反對「殺人機器人」的研發和使用是大部分 AI 屆人士的共識,在 2017 年人工智慧國際會議上,有矽谷「鋼鐵俠」之稱的馬斯克、蘋果聯合創始人之一沃茲尼亞克、研發「阿爾法圍棋」的深度思維公司哈薩比斯等人,都曾簽署公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和「殺手機器人」。

聯合國此前曾多次開會討論是否應該封殺「殺人機器人」,但實際上至今都沒討論出個結果來,儘管目前使用的無人機還需要士兵的操作,但隨著人工智慧技術的進一步發展,它獨立操作似乎已不遙遠,封殺「殺人機器人」已迫在眉睫。

【原文:《聯合國再次向「殺人機器人」說不!》,作者:蕭楓,智慧機器人網編輯整理】

留言

延伸閱讀