影/避免人類被AI終結! 霍金、馬斯克帶頭簽署 23條人工智慧原則

影/避免人類被AI終結! 霍金、馬斯克帶頭簽署 23條人工智慧原則

▲馬斯克和霍金帶頭簽署 23條人工智慧原則。(圖/翻攝自YouTube)

編譯張岑宇/綜合外電報導

2017年初,在美國加州一場人工智慧(AI)會議中,包括英國著名物理學家史蒂芬‧霍金、特斯拉執行長伊隆‧馬斯克等844名人工智慧、機器人領域專家,共同簽署了23條人工智慧的發展原則,以確保AI不對人類造成危害。

▲在美國加州一場人工智慧(AI)會議中,包括英國著名物理學家史蒂芬‧霍金、特斯拉執行長伊隆等專家討論《艾斯羅馬人工智慧23定律》。(影片/取自YouTube,若遭移除請見諒)


在未來生活研究院(Future of Life Institute)組織數十名專家共同參加「Beneficial A.I. 2017」大會之後,便正式發佈了《艾斯羅馬人工智慧23定律》(Asilomar A.I. Principles)。

《艾斯羅馬人工智慧23定律》分為三大類23條。第一類為「科研問題」,共5條,包括研究目標、經費、政策、文化及競爭等;第二類為「倫理價值」,共13條,包括AI開發中的安全、責任、價值觀等;第三類為「長期問題」,共5條,主旨在應對AI造成的災難性風險。

這些專家來自於各界領域的專業人士,包括機器人學家、物理學家、經濟學家、哲學家,他們對人工智慧在「安全」、「經濟」和「道德」等領域產生的影響,展開了激烈辯論,這套準則必須獲得多達90%的與會專家認可,才能通過。

呼籲全世界在發展人工智慧的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。著名物理學家霍金和馬斯克在本周公開聲明支持這一系列原則,以確保擁有自主意識的機器保持安全,並以人類的最佳利益行事。

這23條定律是人類進入人工智慧時代的重要宣言,是指導人類開發安全AI的重要指南,確保在這些準則下符合道德標準,避免將來邪惡勢力崛起,導致人類滅絕的危機。



以下是《艾斯羅馬人工智慧23定律》的全部內容:
1、研究目標:
人工智慧研究目標不能不受約束,必須發展有益的人工智慧。
2、研究資金:
人工智慧投資應該附帶一部分專項研究基金,確保其得到有益的使用,解決電腦科學、經濟、法律、倫理道德和社會研究方面的棘手問題:
——如何確保未來的人工智慧系統健康發展,使之符合我們的意願,避免發生故障或遭到駭客入侵?
——如何通過自動化實現繁榮,同時保護人類的資源,落實人類的目標?
——如何更新法律制度,使之更加公平、效率更高,從而跟上人工智慧的發展步伐,控制與人工智慧有關的風險?
——人工智慧應該符合哪些價值觀,還應該具備哪些法律和道德地位?
3、科學政策聯繫:
人工智慧研究人員應該與政策制定者展開有建設性的良性交流。
4、研究文化:
人工智慧研究人員和開發者之間應該形成合作、互信、透明的文化。
5、避免競賽:
人工智慧系統開發團隊應該主動合作,避免在安全標準上出現妥協。
6、安全性:
人工智慧系統應當在整個生命週期內確保安全性,還要針對這項技術的可行性以及適用的領域進行驗證。
7、故障透明度:
如果人工智慧系統引發破壞,應該可以確定原因。
8、司法透明度:
在司法決策系統中使用任何形式的自動化系統,都應該提供令人滿意的解釋,而且需要由有能力的人員進行審查。
9、責任:
對於先進的人工智慧系統在使用、濫用和應用過程中蘊含的道德意義,設計者和開發者都是利益相關者,他們有責任也有機會塑造由此產生的影響。
10、價值觀一致性:
需要確保高度自動化的人工智慧系統在運行過程中秉承的目標和採取的行動,都符合人類的價值觀。
11、人類價值觀:
人工智慧系統的設計和運行都必須符合人類的尊嚴、權利、自由以及文化多樣性。
12、個人隱私:
人類應該有權使用、管理和控制自己生成的資料,為人工智慧賦予資料的分析權和使用權。
13、自由和隱私:
人工智慧在個人資料上的應用決不能不合理地限制人類擁有或理應擁有的自由。
14、共用利益:
人工智慧技術應當讓盡可能多的人使用和獲益。
15、共用繁榮:
人工智慧創造的經濟繁榮應當廣泛共用,為全人類造福。
16、由人類控制:
人類應當有權選擇是否及如何由人工智慧系統制定決策,以便完成人類選擇的目標。
17、非破壞性:
通過控制高度先進的人工智慧系統獲得的權力,應當尊重和提升一個健康的社會賴以維繼的社會和公民進程,而不是破壞這些進程。
18、人工智慧軍備競賽:
應該避免在自動化致命武器上開展軍備競賽。
19、能力警告:
目前還沒有達成共識,我們應該避免對未來人工智慧技術的能力上限做出強假定。
20、重要性:
先進的人工智慧代表了地球生命歷史上的一次深遠變革,應當以與之相稱的認真態度和充足資源對其進行規劃和管理。
21、風險:
針對人工智慧系統的風險,尤其是災難性風險和存在主義風險,必須針對其預期影響制定相應的規劃和緩解措施。
22、不斷自我完善:
對於能夠通過自我完善或自我複製的方式,快速提升品質或增加數量的人工智慧系統,必須輔以嚴格的安全和控制措施。
23、共同利益:
超級人工智慧只能服務於普世價值,應該考慮全人類的利益,而不是一個國家或一個組織的利益。

留言

延伸閱讀