歐盟發佈AI道德指南 這次可不是「鬧著玩」

歐盟發佈AI道德指南 這次可不是「鬧著玩」
▲歐盟發佈AI道德指南,這次可不是「鬧著玩」。(圖/翻攝自雷鋒網)

【原文:《歐盟發佈AI道德指南,這次可不是「鬧著玩」》,智慧機器人網編輯整理】

文、圖/雷鋒網

歐盟(EU)近日發佈了一套指南,指導企業和政府在開發人工智慧時遵循道德準則。

這些道德準則與以撒·阿西莫夫的「機器人三定律」不同,它們並沒有提供一個簡單明瞭的道德框架來幫我們控制會殺人的機器人。相反,如果我們把AI整合到醫療保健、教育和消費技術等領域,AI將解決那些將影響社會的棘手問題。

例如,如果未來的AI系統診斷你患有癌症,那麼,歐盟就要確認一些事情:該軟體沒有因為你的種族或性別而對你產生偏見;它會遵從人類醫生的反對意見;它可以向患者解釋診斷情況。所以,這些道德準則確實旨在防止AI失控,但這是從管理和官僚層面來說,而不是類似阿西莫夫式的謀殺之論。

為了實現這一目標,歐盟召集了52名專家,他們提出了未來AI系統應該滿足的7項要求。如下:

1.人道機構的監督:AI不應該踐踏人類的自主性。人們不應該被人工智慧系統操縱或強迫,人類要有能力干預或監督軟體所做的每一個決策。

2.技術穩健性和安全性:AI應該安全且準確。它不應該輕易受到外部攻擊的影響,即便受到攻擊,它也應該十分可靠。

3.隱私和資料治理:AI系統收集的個人資料應該是保持安全和隱私。它不應該隨便讓人訪問,也不應該輕易被盜取。

4.演算法透明度:用於創建AI系統的資料和演算法應該是可訪問的,軟體做出的決策應該「被人類理解和跟蹤」。換句話說,運營商應該能夠解釋自己的AI系統做出的決定。

5.多元化、非歧視和公平性:AI提供的服務應該對所有人開放,不分年齡、性別、種族或其他特徵。同樣,系統也不應該偏向於這些界限。

6.環境和社會福利:AI系統應該是可持續的,也就是說它們應該對生態負責,它們還應該「促進積極的社會變革」。

7.完善問責制:AI系統應該是可審計的,公司應對其系統的負面影響應事先作出承認和報告。
我們可以看到,其中一些需求非常抽象,難以從客觀意義上進行評估。例如,「積極的社會變革」,對於這個詞的理解要因人而異,或者說因國而異。但其他方法則更為直接,可以通過政府監督進行檢驗。例如,共用用於訓練政府AI系統的資料,這可能是對抗偏見演算法的好方法。

雖然這些道德準則沒有法律約束力,但它們可能會影響歐盟未來起草的法律。歐盟曾多次表示,它希望成為AI道德領域的領導者,並且已經向GDPR表明,它願意制定影響深遠的法律來保護數字權利。

然而,從某種程度上來說,這一角色是環境強加給歐盟的,因為在投資和前沿研究方面,它無法與美國和中國等世界AI領導者競爭。因此,歐盟只能將道德作為其塑造該技術未來的最佳選擇。

歐盟的指南裡還包括了一份「值得信賴的AI評估清單」,這份清單可以説明專家找出AI軟體中的潛在弱點或危險。清單還對軟體公司設置了很多問題,包括「是否檢驗了貴公司的AI系統在意外情況和環境中的表現?」以及「是否評估了軟體資料集中資料的類型和範圍?」

這些評估清單只是初步的,但歐盟將在未來幾年裡收集公司的回饋意見,並在2020年提交有關其效用的最終報告。數位權利組織Access Now的政策經理范妮·希德維吉是説明撰寫這份指南的專家之一,她表示,評估清單是指南中最重要的部分。

「這份清單為減輕AI的潛在危害提供了一個實用且具前瞻性的視角,」希德維吉告訴The Verge,「我們認為,歐盟有潛力和責任走在這項工作的前列。但歐盟不應止步于道德準則,因為道德準則只有在法律的基礎上才能發揮更大的作用。」

其他人則懷疑,歐盟試圖通過道德研究來引導全球AI的發展,這會對AI界產生重大影響。

「我們對歐盟正在採取的方法持懷疑態度,為AI制定道德的黃金標準並不能讓歐盟在全球AI發展中站穩腳跟,」資料創新中心的高級政策分析師埃利納·奇沃特對The Verge說道,「要成為AI道德領域的領導者,你首先要成為全球AI的領導者。」


熱門標籤

留言

延伸閱讀