影/軍用無人機恐變隱形炸彈成校園屠殺武器 科學家呼籲:應禁止殺手機器人

影/軍用無人機恐變隱形炸彈成校園屠殺武器 科學家呼籲:應禁止殺手機器人
▲科學家呼籲應該全面禁止殺手機器人。(圖/翻攝自YouTube)

張岑宇/綜合報導 

近日科學家公布一個小短片,該片拍攝了若是軍事公司推出的小型無人機,落入壞人手裡,所有人將在光天化日之下被當場攻擊,因為會主動追蹤的無人機,將成為激進份子用來屠殺人類的強大武器,科學家藉此影片呼籲應全面禁止殺手機器人,才能預防人類性命被機器人摧殘。 

▲一大群小型無人機恐變成恐怖份子的大規模屠殺武器。(影片/取自YouTube,若遭移除請見諒)

根據《衛報》報導,這個影片主要是強調發展自主武器的危險,因為武器在沒有人指揮的情況下,具備了自動追蹤功能,且能夠自行射擊目標,他們警告大家,應該需要研擬一個強大的防禦技術,才能防止可怕的新型大規模毀滅性武器。 

加州大學柏克萊分校人工智慧教授斯圖亞特‧J‧羅素(Stuart Russell),領導其他同校的 AI 科學家和其他人,在聯合國的活動上宣布,應該停止研發殺手機器人。羅素警告,「無人駕駛機、坦克和自動機關槍等自主武器的製造和使用,將對人類的安全和自由造成破壞,應該立刻停止發展」。 

▲軍事無人機恐變成殺人武器。(影片/取自YouTube,若遭移除請見諒)

羅素說,「追求致命自主武器的發展,將大大降低國際、國家、地方和人身安全。科學家們用類似的說法,來說服總統林登約翰遜(Lyndon Johnson)和理查德尼克松(Richard Nixon)放棄美國的生物武器計劃。 

軍方是人工智慧技術最大的資助者和採用者之一。強大的電腦計算技術可以幫助機器人飛行,導航地形,並在海底巡邏地區,連接到攝影鏡頭,圖像識別算法可以比人類更準確地掃描目標的影像畫面。像是保衛韓國與北方邊界的自動化哨兵,就是利用此技術,來發現並追踪 4 公里以外的目標。 

2017年初,在美國加州一場人工智慧(AI)會議中,包括英國著名物理學家史蒂芬‧霍金、特斯拉執行長伊隆‧馬斯克等844名人工智慧、機器人領域專家,共同簽署了23條人工智慧的發展原則,以確保AI不對人類造成危害。 

▲在美國加州一場人工智慧(AI)會議中,包括英國著名物理學家史蒂芬‧霍金、特斯拉執行長伊隆等專家討論《艾斯羅馬人工智慧23定律》。(影片/取自YouTube,若遭移除請見諒) 

隨著無人機攜帶槍械開火成為現實,自動武器似乎不再遙遠;為阻止機器人殺手走上戰場,特斯拉執行長伊隆.馬斯克與 DeepMind 創辦人之一的穆斯塔法.蘇萊曼,率領 26 國 116 名專家向聯合國送出公開信,要求禁止自動武器。到目前為止,已有19個國家要求禁止,包括阿根廷,埃及和巴基斯坦。 

不同於核子武器,自主武器沒有那麼昂貴、原料取得也相對容易,在加上由於人工智慧的機器人來製造武器相對便宜,有反對人士擔憂自動武器可能會大規模生產,並落入恐怖分子手中,如短片所描繪的那樣恣意殺人,因為這些武器可以用來消滅人口,並造成嚴重破壞。 

雖然軍用無人機長期以來一直在遠程飛行進行監視和攻擊,但裝備有爆炸物和目標識別系統的自動武器現在技術已經成熟,並且可以在不被人類操控的情況下,進行定位和射擊。許多反對者則認為,不應該給予機器人操縱人類生死的權力。

延伸閱讀

留言