微軟提出 AI 開發、應用的 6 大道德原則 以建立人們的信任

微軟提出 AI 開發、應用的 6 大道德原則 以建立人們的信任
▲微軟提出 AI 開發、應用的 6 大道德原則。(圖/翻攝自 Japan News Center)

吳佳臻/綜合報導

近年來人工智慧(AI)發展迅速,科技產品多數標榜搭載 AI,而 AI 醫生、AI 面試官也陸續上崗,象徵著 AI 已和我們生活密不可分,因此 AI 的相關規範更顯重要。日前,微軟於官方部落格中發表 AI 開發、應用須遵守的 6 大道德原則。

內文提到,針對人類最害怕的疾病─癌症,微軟位於世界各地的研究所,都設法以 AI 和機器學習協助治療癌症,而不是靠試管和醫療設備。

微軟運用機器學習和自然語言處理,提供全球頂尖的腫瘤學家能以最直觀的方式,來理解所有可用的研究資料與數據,進而找出最有效、最個人化的癌症治療方法。

另外,透過結合機器學習和電腦視覺,能夠讓放射線科醫師,掌握患者腫瘤的發展狀況;更重要的是,找到最適合的治療法。

為了達到這樣的目的,大量數據的收集、共享是不可欠缺的過程,而這引發了資料獲取、安全、隱私、透明度等倫理問題。以及如何確保 AI 會公平對待每個人?需要探討的層面實在太廣,關鍵在於你我都信任的準則。

▲關鍵在於你我都信任的準則。(GERARD JULIEN/AFP/Getty Images)

微軟認為它不僅應該透明、安全且富有包容性,且要保持最高程度的隱私保護,於是訂定六項道德原則,該原則為發展和部署 AI 解決方案的核心,分別為「隱私和安全」、「透明化」、「保持中立客觀性」、「可靠性」、「包容性」、「當責」。

隱私和安全:與其他雲端科技一樣,AI 系統必須遵守所有保護資料收集、使用和存儲的法律,並確保個人資訊按照隱私標準使用,避免被濫用或盜竊。

透明化:隨著 AI 對人們生活的影響越來越大,必須提供有關 AI 系統如何運作的相關資訊,以便人們理解決策是如何做出的,並能更容易地識別潛在的偏差、錯誤和意外結果。

保持中立客觀性:當 AI 系統做出有關醫療或雇員的決定時,他們應該對所有具有相似症狀或資格的人,提出同樣的建議。為了確保公平,我們必須瞭解 AI 系統,是否可能被任何偏差認知影響運作。

可靠性:AI 系統必須被設計成,能夠在清晰的參數範圍內運行,並進行嚴格的測試,以確保它們能夠安全地回應未預料到的情況,並且不會以與原始期望不同的方式發展。人們應該是決定 AI 系統將如何,以及在何時被部署最重要的一角。

包容性:AI 解決方案必須通過實踐包容性,來處理廣泛的人類需求和經驗,可以預見的是,在產品或環境中可能存在一些潛在障礙,而這些障礙可能會無意地將人們排除在外。

當責:設計和部署 AI 系統的人,必須對其系統的運作負責。AI 的責任規範,應該借鑒其他行業的經驗與做法,例如醫療領域的隱私。除此之外,不論是在系統被設計或之後在世界上運行時,這個規範都應該要被遵守。

這六項原則將作為微軟 AI 產品和服務設計的標準,並且該公司已經建立了一個內部委員會,要從體制上確認產品符合這些標準。

熱門標籤

留言

延伸閱讀