對話「深度學習之父」 Geoffrey Hinton & DeepMind 創始人Demis Hassabis :通用人工智慧離我們有多遠?

對話「深度學習之父」 Geoffrey Hinton & DeepMind 創始人Demis Hassabis :通用人工智慧離我們有多遠?
▲通用人工智慧離我們有多遠?(圖/翻攝自雷鋒網)

【原文:《對話 Geoffrey Hinton&Demis Hassabis :通用人工智慧離我們有多遠?》,作者:汪思颖,智慧機器人網編輯整理】

文、圖/雷鋒網

預測用戶喜歡的音樂類型、檢測出轉移性腫瘤、生成腦癌的綜合掃描、利用真實世界中拍攝的視頻創造出虛擬環境、識別出被拐賣的人口、擊敗西洋棋大師以及專業的 Dota2 電競團隊、幫助 Alphabet 旗下的 Waymo 首次推出商業無人駕駛計程車服務、代替計程車司機掌控方向盤,上面提到的這些只是人工智慧系統在 2018 年取得的諸多成就的冰山一角,這也證明了該領域的發展速度如火箭一般迅速。

按照目前的變化速度,麥肯錫全球研究院的分析師預測,僅在美國,未來 12 年人工智慧就將幫助人們實現 20% 到 25 % 的凈經濟收益(相當於全球範圍內收益達到 13 億美元)。

在目前的人工智慧系統中,一些最令人印象深刻的工作都是起源於對深度神經網絡(DNN)的研究,DNN 是一種基於數據表征的機器學習架構。它們是大致基於人腦建模的:DNN 包括與突觸相連的人工神經元(即數學函數),它們能夠通過突觸結構將信號傳遞給其他神經元。神經元分層排列,這些信號(數據或輸入的積)被送入 DNN,從一層傳遞到另一層,並通過調整每個神經連接的突觸強度(權重)緩慢地對 DNN 進行「調優」。 隨著時間的推移,經過數百甚至數百萬個周期的疊代訓練,網絡可以從數據集中提取特徵,並識別樣本中的趨勢,最終學會做出新的預測。

就在 30 年前,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 合著的巨著「Learning representation by Back-propagating Errors」(https://www.nature.com/articles/323533a0)詳細闡述了一種基本的權重計算技術——反向傳播。 在越來越便宜、越來越魯棒的計算機硬體的輔助下,反向傳播技術使計算機視覺、自然語言處理、機器翻譯、藥物設計和材料檢測等領域的研究取得了巨大飛躍。

通用人工智慧面臨的挑戰

那麼,DNN 是超級智能機器人出現的先兆嗎?Demis Hassabis 不這麼認為(他的話具有一定權威性)。Demis Hassabis 是 DeepMind 的聯合創始人,DeepMind 是一家總部位於倫敦的機器學習初創公司,創立宗旨是將神經科學和計算機科學知識用於創造通用人工智慧。換句話說,這種系統可以成功地完成人類所能完成的任何智能化的任務。

「還有很長的路要走,」Demis Hassabis 在 12 月初於蒙特婁舉行的 2018 年神經網絡會議( NeurIPS )上說。「從某種意義上來說,遊戲或棋類遊戲所處的環境十分簡單,因為狀態之間的過渡模型可以被定義得非常詳細,而且易於學習。真實世界的 3D 環境和真實世界本身要複雜得多……但如果你有開發通用人工智慧的計劃,這也很重要」。

Hassabis 是一名西洋棋奇才,畢業於劍橋大學,早年曾擔任視頻遊戲「主題公園」和「黑與白」的首席程式設計師。他曾在倫敦大學學院、麻省理工學院和哈佛大學學習神經科學,並在哈佛大學合作撰寫了關於自傳性記憶和情節記憶系統的研究論文。2010 年,他參與創立 DeepMind,僅僅三年後,DeepMind 就發布了一個只使用 Atari 遊戲中的原始像素作為輸入的開創性人工智慧系統。

自從谷歌斥資 4 億英鎊收購 DeepMind 以來,該公司及其醫學研究部門 DeepMind Health 一直以它們的產品 AlphaGo 占據各大媒體頭條。 AlphaGo 是一種人工智慧系統,在中國圍棋比賽中擊敗了世界冠軍李世石。谷歌還與倫敦大學學院醫院持續合作,他們用於該醫院的 CT 掃描圖像的分割模型展示出了「接近人類專家的性能表現」。最近,DeepMind 的研究人員發明了一種蛋白質摺疊算法 AlphaFold,該算法成功識別了 43 種蛋白質中 25 種蛋白質的最精確結構,獲得了第 13 屆蛋白質結構預測技術競賽(Critical Assessment of Techniques for Protein Structure Prediction ,CASP)一等獎。 2018 年 12 月,DeepMind 在 Science 雜誌上發表論文——AlphaZero 系統,這一系統是 AlphaGo 的繼承者,可以在 3 種不同的遊戲(西洋棋、日本將棋和圍棋)中取得足以擊敗人類著名棋手的性能。

儘管 DeepMind 取得了令人印象深刻的成就,但 Hassabis 提醒人們,他們絕不是在暗示通用人工智慧即將成為現實(現在還為時過早)。他說,與今天的人工智慧系統不同,人類是利用自身掌握的關於世界知識來進行預測和規劃。而與圍棋、西洋棋和將棋的初學者相比,AlphaGo 和 AlphaZero 在信息方面處於劣勢。

Hassabis 說:「首先,這些人工智慧系統需要先學會看別人玩遊戲,然後它們會學習自己玩遊戲」。「人類玩家可以比算法更快地學會玩 Atari 遊戲之類的遊戲。因為他們可以相當迅速地判斷圖案中的像素的意義,以確定他們是否需要逃離這個圖案代表的物體或朝這個方向前進」。

要想讓 AlphaZero 這樣的機器模型能夠打敗人類,大約需要在一個安裝了數千個谷歌設計的為機器學習優化過的應用程式專用晶片上訓練 70 萬步(每一步代表 4096 個棋盤位置)。換算成時間的話,相當於對於西洋棋需要經過 9 個小時的訓練;對於將棋來說,需要經過 12 個小時的訓練;而對於圍棋來說,則需要經過 13 天的訓練。

Deepmind 並不是唯一一個需要解決人工智慧系統設計局限性的公司。

2018 年早些時候,總部位於舊金山的非營利人工智慧研究公司 OpenAI (由 Elon Musk、Reid Hoffman、Peter Thiel 以及其他科技界名人支持)在一篇博客文章中揭開了 OpenAI Five 的神秘面紗。2018 年夏天,OpenAI Five 擊敗了一個包含四名 Dota 2 職業玩家的五人團隊。該組織稱,這一系統每天在帶有 256 個 Nvidia Tesla P100 顯卡和 128,000 個處理器核心的谷歌雲平台上,訓練時長相當於一個人玩 180 年遊戲(80% 時間是和自己進行對抗,20% 時間是和自己過去的決策進行對抗)。在經過了所有這些訓練後,它也努力將所學到的技能應用到特定遊戲之外的任務中。

「我們沒有能夠高效地將它們的知識從一個領域遷移到另一個領域的系統,我認為需要一些概念或特徵提取等。」Hassabi說,「針對遊戲構建模型相對容易,因為從一個步驟過渡到另一個步驟很容易,但我們希望能夠使系統具有生成模型的能力,這將使我們能夠更容易地在更複雜的環境中執行規劃任務」。

如今大多數的人工智慧系統都不具備很好的擴展能力。AlphaZero、AlphaGo、OpenAI Five 利用了一種被稱為強化學習的編程模式,在這種模式下,一個被人工智慧算法控制的軟體智能體(agent)可以在一個環境(environment,例如一個棋盤遊戲,或者一個 MOBA 類遊戲)中學著採取相應的行動(action)以獲得最大化的獎勵(reward)。

在接受 VentureBeat 採訪時,Hinton 說:我們不妨想像一下斯金納箱(雷鋒網註:斯金納通過實驗發現,動物的學習行為是隨著一個起強化作用的刺激而發生的。斯金納把動物的學習行為推而廣之到人類的學習行為上,他認為雖然人類學習行為的性質比動物複雜得多,但也要通過操作性條件反射。),這有助於我們對強化學習進行理解。斯金納箱名字來源於哈佛大學的先驅心理學家 B.f. 斯金納利用操作性條件反射來訓練受試動物執行一些動作的實驗,比如按下一個槓桿,讓動物來響應刺激(如光或聲音)。當受試者正確地完成一項行為時,他們會得到某種形式的獎勵(通常是以食物或水的形式)。

人工智慧研究中的強化學習方法的問題在於獎勵信號往往是「非常微弱的」,Hinton 說。在某些環境下,智能體會陷入在隨機數據中尋找模式的困境,即所謂的「噪聲電視問題」(一個智能體被置於一個迷宮中,並要找到一個非常有價值的物體的實驗,詳情請參閱 AI 科技評論文章:「你需要新的好奇心方法克服強化學習中的「拓展症」」)

Hinton 說:「有時候,你會得到一個標量信號,告訴你目前模型運行良好,但這種信號並不常見,信息量也不多。而你卻希望僅僅基於這個非常微弱的信號,就訓練帶有數百萬個參數或數萬億個參數的系統。這時,你只能求助於大量的計算(許多效果驚人的演示樣例都需要依賴大量的計算)。這是解決問題的一個方向,但我卻並不認為這種方式非常具有新引力。我認為研究人員需要有更深刻的思考」。

Hinton 和 Hassabis 一樣,他對自己的說法很有把握。Hinton 被一些人稱為「深度學習教父」。在過去 30 年中,Hinton 一直致力於解決人工智慧面臨的一些最大的挑戰。現在,他既要率領谷歌大腦深度學習研究團隊,也有在多倫多大學擔任教職。除了在 DNN 領域的開創性工作,Hinton 還在機器學習、知覺、記憶和符號處理方面撰寫或合著了 200 多篇經過同行評審的出版物,而且他最近把注意力轉向了膠囊神經網絡,這是一種包含有助於建立更穩定的表徵結構的機器學習系統。

他說,幾十年體系化的研究經歷使他確信,解決強化學習的可擴展性問題的方法是用層次結構來增強信號。

Hinton 解釋說:「假設你擁有一個龐大的組織,你會從組織的頂層發出強化信號。例如,執行長被告知公司今年獲得了大量利潤,這就是他的強化信號。假設每季度會發出一次這樣的強化信號,這並不意味著要訓練一大群等級森嚴的人去完成一些任務,但是如果執行長下面有幾個副總裁,並且給每個副總裁分配一個目標,以使他的收益最大化,這會帶來更多的利潤,他也會得到獎勵」。

Hinton 說,在這種安排下,即使沒有回報,也許是因為學著這樣做的執行長給副總裁設定了錯誤的目標(但這個每季度一次的循環周期仍將繼續),副總裁總能學到一些東西,這些東西在未來很可能會變得有用。

他補充道:「通過制定次級目標,並提供報酬來實現這些次級目標,可以通過製造更多微弱的信號來放大這些微弱的信號」。

這是一個看似複雜的思維實驗。可以看出來,這些副總裁需要建立一個溝通渠道,即中層和低層管理人員交流的渠道,與其他人溝通最終目標、次級目標和相關的獎勵條件。系統中的每個「雇員」都需要能夠決定他們是否做了正確的事情,這樣他們才能知道他們在什麼情況下會得到獎勵。所以他們需要一個語言系統。

Hinton 說:「這是一個讓系統中的模塊為其他模塊創建子目標的問題。你可以想像一個牧羊人和一隻牧羊犬。他們創造了一種語言(不是英語),訓練有素的牧羊犬和牧羊人可以非常好地交流。但是想像一下,如果牧羊犬有自己的牧羊犬。 然後它必須理解、總結出這個牧羊人手勢中的信息,並編造一些方法來和子牧羊犬(牧羊犬的牧羊犬)交談,從而傳達這些信息」。

幸運的是,最近被稱為 Transformers 的人工智慧的突破性進展可能是人們朝著正確方向邁出的一步。

谷歌的研究人員在去年發表的一篇博文和附錄的一篇論文(「Attention Is All You Need」,https://arxiv.org/abs/1706.03762)中,介紹了一種新型的神經結構(上面提到的 Transformers),它能夠在語言翻譯任務中取得比目前最先進的模型更好的性能,同時所需的訓練計算量也更少。

基於「Transformers」中的工作,谷歌於 2018 年 11 月開源了 Transformers 中的雙向編碼器表征模型 BERT。BERT 通過對任意語料庫生成的任務進行預訓練來學習對句子之間的關係進行建模,使開發人員能夠在 30 分鐘內在單個 Cloud TPU (張量處理單元,谷歌的雲託管加速器硬體)上訓練最先進的自然語言處理模型,同樣的任務在單個圖形處理器(GPU)上需要訓練幾個小時。

Hinton 解釋說:「Transformers 是一種可以選擇路由的神經網絡。在目前的神經網絡中,你的輸入活動變化快,而網絡權重變化緩慢,這就是問題所在。生物學告訴你,你想要做的是在活動變化很快的情況下,可以在許多不同的時間尺度上修改突觸,這樣你就可以對最近發生的事情有一個記憶,並且很容易恢復它。 在 Transformers 中,一組神經元得到了一些計算結果後,它並不會直接把它發送給所有與它相連的神經元。經過分析後,它會把計算結果發送給那些知道如何處理該計算結果的神經元,而不是那些不知道如何處理它的神經元」。

這不是什麼新的想法。Hinton 指出,在 20 世紀 70 年代,大多數關於神經網絡的研究都著眼於記憶方面,其目標是通過修改權重來存儲信息,這樣就可以利用加權計算重新創建信息,而不是簡單地從某種形式的存儲結果中直接提取信息。

Hinton 表示:「實際上,你不會像在文件櫃中那樣真正地存儲信息,你只需要對一些參數進行修改,如果我給你一小部分信息,你就可以填出剩下的部分,就像用一些碎片製造出如恐龍一樣的龐然大物。我想說的是,我們應該把這個想法用於短期記憶,而不僅僅是長期記憶,這樣它將解決各種問題」。

人工智慧和算法偏見

展望未來,Hinton 相信,借鑑於生物學的經驗,未來的人工智慧系統的發展方向將主要是無監督學習的各種變體。無監督學習是機器學習的一個分支,它從未標記、未分類和未歸類的測試數據中收集知識。他說,在學習數據間的共性並且對這種共性的存在或缺失做出反應的能力上,無監督學習幾乎與人類達到了相同的水平。

Hinton 說:「通常而言,人們很難獲得帶標籤的數據。這不像你看到一個場景,有人把微電極放入你的下顳葉皮層,然後說在這個場景下應該產生一個電脈衝。我認為這是一種更具生物學意義的學習方式。大腦基本上就是這麼工作的」。

Hassabis 對此表示贊同。

Hassabis 說:「我們(DeepMind)正在努力制定一種具有認知能力的神經科學研究路線圖,我們認為這是擁有一個功能齊全的人類級人工智慧系統所必需的。它需要能夠具備遷移學習的能力、掌握一定的概念性知識,而且具備某種意義上的創造力,能夠想像未來發生的情景、反設事實並規劃未來,具備使用語言和符號推理的能力。這些都是人類可以毫不費力地做到的事情」。

然而,隨著人工智慧系統變得越來越複雜,一些技術專家和倫理學家擔心人工智慧會吸收和反映現有訓練數據中存在的偏見。事實上,有證據表明這種情況已經發生了。

谷歌的人工智慧研究科學家最近在一個免費的、開源的數據集上建立了一個預訓練好的人工智慧模型(https://venturebeat.com/2018/12/02/googles-inclusive-images-competition-spurs-development-of-less-biased-image-classification-ai/)。在其中一張照片中,一位穿著西式長裙和寬鬆婚紗的白人新娘被貼上了「連衣裙」、「女人」、「婚禮」和「新娘」等標籤。然而,另一個形象,也是一個新娘,但是她有著亞裔血統,穿著民族服裝,卻被貼上了「服裝」、「活動」、「表演藝術」等標籤。更糟糕的是,這個模型完全忽略了圖片中的人物。

與此同時,「華盛頓郵報」2018 年 7 月進行的兩項研究顯示,亞馬遜和谷歌生產的智能音箱聽懂非美國口音的可能性,比聽土生土長的美國人的口音低 30% 。像 Switchboard 這樣由 IBM 和微軟等公司用來測量語音模型錯誤率的數據集,已經被證明偏向於識別出來自美國特定地區的用戶。

計算機視覺算法在克服偏見的問題上也沒有表現得更好。

2012 年發表的一項研究表明,供應商 Cognitec 公司開發的人臉識別算法在非裔美國人身上的表現比白種人差 5% 到 10%。據透露,最近由倫敦首都警察安全局部署的一個系統每次運行會產生多達 49 個錯誤的匹配結果。今年夏天,在亞馬遜 Rekognition 服務的一次測試中,美國公民自由聯盟調查局發現,當他們從一個「公開的數據源」獲取 25000 張照片,並將其與國會議員的官方照片進行比較時,有 28 張照片被誤認為是罪犯。

Hinton 並沒有因為負面新聞而氣餒。他認為,人工智慧的一個明顯優勢在於它所提供的靈活性,而數據中的偏見可以很容易地被建模。

他說:「任何從數據中學到的東西都會學到數據中的所有偏見。好消息是,如果你能對數據中的偏見進行建模,你就能非常有效地消除這些偏差。有各種各樣的方法可以做到這一點」。

他指出,這在人類身上並不總是奏效。

「如果你讓人們做這些工作,你可以嘗試對他們的偏見建模,但告訴他們不要有偏見並不能真正減少偏見。因此,我認為相較之下,在機器學習系統中,處理偏見要容易得多」。

Hinton 指出,一系列新出現的減輕偏見的工具有望被引入到更加公正的人工智慧系統中。

2018 年 5 月,Facebook 發布了「Fairness Flow」,當算法根據一個人的種族、性別或年齡做出不公平的判斷時,它會自動發出警告。Accenture 也發布了一個工具包,可以自動檢測人工智慧算法中的偏見,並幫助數據科學家減輕這種偏見。微軟也在 2018 年 5 月推出了自己的解決方案;而在 9 月,谷歌推出了「What-If」 工具,它也是谷歌用於 TensorFlow 機器學習框架的 TensorBoard 的偏見檢測功能。

IBM 也不甘示弱,於 2018 年秋季發布了 AI fair 360,這是一款基於雲計算的全自動化套件,可以「持續輸出思考結果」,幫助人們了解人工智慧系統如何做出決策,並推薦一些可能會減輕偏見影響的調整方法(比如算法調整或數據平衡)。Watson 和雲平台研究小組最近的研究著眼於在減少人工智慧模型中的偏見,特別是與面部識別有關的偏見。

「擁有運算速度非常快的計算機的一個好處是,你現在可以編寫一些效率相對較低的軟體,但這很容易理解,因為你的計算機有飛一般的速度。人們往往不喜歡這麼做,但通常而言,你確實會想要擁有運行速度非常快的計算機。在犧牲代碼效率的條件下,你可以在取得令人難以置信的準確率的情況下,讓編寫代碼的工作不那麼複雜。有了難以置信的準確性,你就有餘地讓它們稍微不那麼準確,從而達到你想要的其他目的。在我看來,這是一個公平性和性能的折中」。

人工智慧與就業

Hinton 對人工智慧對就業市場的影響也持樂觀態度。

「有的人認為通用人工智慧這個詞帶有這樣的含義:這種機器人個體突然會比你更聰明。我覺得不會是那樣的,我認為,我們做的越來越多的日常事務將被人工智慧系統(如谷歌助手)所取代」。

Forrester 公司的分析師最近預測,機器人過程自動化(RPA)和人工智慧將在明年為 40% 以上的公司創造數字化工作者,這種軟體能夠自動完成傳統上由人類完成的任務。到 2019 年,美國將有大約 10% 的工作崗位因自動化而消失。此外,世界經濟論壇、普華永道和 Gartner 預測,到 2025 年,人工智慧將讓 7500 萬人失業。

但 Hinton 認為通用人工智慧不會讓人類被解僱。相反,他表示,人工智慧對世界的認識在很大程度上仍將是短視的,至少在不久的將來是這樣。他相信,人工智慧將繼續以平凡但有意義的方式改善我們的生活。

他說,「未來的人工智慧系統將會非常了解你可能想要做什麼,以及如何去做,這將會非常有幫助。但它不會取代你。如果你選用了一個非常擅長自動駕駛的系統,然後在第一天就乘坐它出行,我認為這將是一場災難」。

對於目前由人類執行的危險任務,Hinton 認為這是朝著正確方向邁出的一步。

「人們真的應該害怕坐在一輛由巨大的神經網絡控制的汽車裡,因為它無法告訴你它在做什麼,」他說,「我們知道,這樣的工作叫計程車司機」。

熱門標籤

留言

延伸閱讀