憂AI成下個原子彈 業界:應約束人工智慧軍事化

憂AI成下個原子彈 業界:應約束人工智慧軍事化
▲許多業界人士害怕AI會成為下顆原子彈。(圖/翻攝自Daily Mail)

文/機器人庫

斯蒂芬·霍金、馬斯克等人曾在國際人工智慧聯席會議上,支援通過禁止不受人類有意識控制的進攻性自主武器,來阻止人工智慧軍備競賽的提議。筆者認同他們的觀點,也認為在必要時應簽署一個公約來約束人工智慧軍事化。

▲項立剛振筆疾書寫下本文,表達對AI軍事化的看法。(圖/翻攝自第一財經)


人類今天要保衛自己,可利用的武器已經太多了,對於核武器的管控早已是大問題,我們並不需要在常規武器之外,還把人工智慧用於武器。

人工智慧最大的價值在於低成本、高效率、密集性,通過大資料、智慧學習迅速提升其能力。人類對人工智慧的把握和控制力又是薄弱和未知的。今天已經有大量的無人機、智慧型機器人被用於軍事行動,而未來所謂「不需要人類干預就能選擇目標和交戰的武器」,對於人類社會產生的威脅變得不可預知。表面上,這些智慧型機器人或是無人機作戰,會減少士兵的傷亡,但是這些智慧型機器人和無人機的攻擊物件是誰?主要還是人類。

人工智慧武器最複雜的問題,在於它的廉價與不可控。不像核武器製造需要極高的技術,很難獲得的原料以及高昂成本。人工智慧武器便於大規模生產,並通過多種管道流通。最近我們已經看到在敘利亞戰場出現了由民用無人飛機改造而成,攜帶了榴彈攻擊型的無人機,一架無人機和一支步槍的價格相近,可以大批量生產,很容易獲得。

人工智慧武器的不可控性還在於,即使由技術大國生產出不需要人類干預就能選擇目標和交戰的武器,但這類武器受人類控制的可能性是未知的,在大量人工智慧介入,擁有了強大的學習能力之後,它會怎麼選擇攻擊目標,我們一無所知,無人能保證它會被有效控制,不會人為複製。

▲原子彈的恐怖威力,讓各國對核戰戒慎恐懼。(圖/翻攝自Youtube)


因此,在人工智慧武器還沒成為下一個「原子彈」之時,大國首先需要擔起責任,在國際上形成一個類似於禁止化學和生化武器國際協定一樣的公約,禁止把人工智慧用於軍事,而不能單靠科學界的「良心」。如果有一天,大量小型、低成本、不可控的殺人機器氾濫成災,甚至出現人工智慧武器逃避人類監管的情況,再談管理和控制已經太晚了。

【本文經機器人庫同意授權刊出】

留言

延伸閱讀