網路假新聞如此猖獗 人工智能能遏制住它們嗎?

網路假新聞如此猖獗 人工智能能遏制住它們嗎?

▲網路假新聞如此猖獗(圖/翻攝自機器人網)

【原文:《網路假新聞如此猖獗,人工智能能遏制住它們嗎?》,智慧機器人網編輯整理】

文、圖/機器人網

2016年美國總統大選期間,社交網路上充斥著不准確和誤導性的文章。從那以後,科技公司——從Facebook、Google等這樣的大公司到生氣勃勃的初創公司——已經打造了一些工具來打擊錯誤信息(包括許多人稱之為「假新聞」的文章,儘管這個詞被高度政治化了)。大多數公司已求助於人工智能(AI),希望快速且自動化的計算機系統能夠解決這個看起來像互聯網一樣大的問題。

「他們都在使用人工智能,因為他們需要擴大處理規模。」Claire Wardle 說。她是哈佛大學約翰肯尼迪政府學院承擔的錯誤信息鬥爭項目 First Draft 的負責人。她說,AI 可以使那些耗時的步驟(例如,仔細檢查每天在線發布的大量內容並標記出可能虛假的內容)加快。

不過,Wardle 說,人工智能無法做出最終的判斷。「對於機器來說,你如何編碼'誤導性的'(misleading)呢?即使是人類也難以定義它。生活是混亂、複雜和微妙的,人工智能要做到理解這一點,還有很長的路要走。」

Facebook 曾因未能在 2016 年對虛假內容採取行動而廣受批評。Facebook稱,它將在今年 11 月的美國中期選舉中以及全球其他選舉中利用人工智能把打擊虛假內容一事做得更好。

Facebook 產品經理 Jim Kleban 致力於減少網站 news feed 中的錯誤信息,他解釋說Facebook現在使用AI來增強人類智能。

AI 檢查每天在 Facebook 上分享的數百萬個鏈接,識別出其中的可疑內容,然後將它們發送給事實核查人員。他說:「在可預見的未來,所有這些系統都需要混合型解決方案。」

當事實核查人員認為一段內容是虛假內容時,Facebook 會降低其在用戶的 news feed 中的排序位置。Kleban說,這種方法使虛假內容的被瀏覽次數減少了 80%。

Facebook 的 AI 是通過機器學習 —— AI 系統接收大量被標記過的資料的數據,並獨立地尋找出模式的一種技術——進行訓練的。例如,圖像分類 AI 可能會查看數百萬張標有“貓”或“狗”的照片,而學習到貓和狗的區別特徵。但是,訓練 AI 來識別虛假內容要難得多。

Kleban 說,Facebook 的 AI 從內容來源開始,利用各種信號來挑選出包含錯誤信息的文章:「知道某個網頁或網站過去分享過虛假內容,就可以預測它會再次分享虛假內容,這樣的預測往往是很準確的。」

虛假內容在網路上的傳播方式也可能存在一種可識別的模式;Kleban 說這是一個活躍的研究領域。至於文本本身,AI沒有能力評估內容的真實性,但它可以找到信號,例如在評論部分有對文本內容表示不信任的表達。

總部位於倫敦的初創公司Factmata正在開發一種採用不同方法的人工智能係統,該公司的知名投資者包括Twitter共同創始人Biz Stone和Craigslist創始人Craig Newmark。

Factmata 創始人 Dhruv Ghulati 說,公司並不特別關注內容的出版者或他們的聲譽,「我們希望根據內容本身來對內容進行判斷。」

Factmata 的系統採用的也是人機合作的混合型方案,雖然其配置是不同的:人是對內容進行標記的專家,做過標記的內容用於AI的訓練。Ghulati 說:「像假新聞和宣傳這樣的東西在本質上是差別細微的和主觀的。確實需要專業知識來理解內容的性質並對其進行適當的標記。」

通過那些標記過的數據集,Factmata正在訓練其AI識別政治上有偏見的內容、虛假內容和仇恨言論。

該公司目前正致力於互聯網的“後端”,幫助互聯網廣告交易平台(advertising exchanges)避免在有問題的內容上投放廣告。將來它可能會對社交網路有用。Factmata的系統標記了可疑內容並解釋了其可疑之處,但該公司將怎樣處理那些內容的決定權留給了客戶。

一些最初是面向其他新聞目標的公司也加入了競爭。總部位於都柏林的NewsWhip 向新聞機構銷售一款基於人工智能的工具,這款工具可以發現熱門內容並預測其傳播情況,從而使新聞團隊能夠快速注意到那些正在像病毒一樣迅速在網上傳播的新聞報導。在法國、英國和德國最近的選舉中,記者們利用該工具發現並揭穿了那些在社交網路上廣受關注的虛假新聞報導。

總部位於倫敦的 Krzana 公司用一種定制的實時news feed幫助記者發現突發新聞。記者可使用 Krzana 的基於 AI 的工具發現四種語言(將來還會有更多種語言)的內容,這些內容是工具根據記者選擇的關鍵詞和搜索詞找出來的。在墨西哥最近的選舉中,一個媒體聯盟使用 Krzana 的工具快速找到了可能包含錯誤信息的新聞。

Krzana的共同創始人Toby Abel說:「記者是第一批閱讀這些報導的人,而不是等到這些報導被很多人分享後才去讀。如果它們是假的,它們很快就會遭到反擊。」

Abel 說 AI 錯誤信息檢測器本身還不可靠,他同意需要人機合作。他引用了與 2018 年墨西哥大選有關的一個例子,在這次大選中,一位政治候選人以戲謔的方式回應了對其與俄羅斯的關係的指控:他走到碼頭,宣稱自己正在等他的俄羅斯潛艇。「如果在沒有外部背景和理解的情況下閱讀這篇文章,它看起來就像假新聞。但事實上並非如此。」阿貝爾說。

對於試圖識別虛假內容的人工智能係統來說,諷刺性表達是最棘手的問題之一。各公司也在努力找出圖像、視頻、圖表和其他非文本內容中的錯誤信息。欺騙的可能性似乎無窮無盡,例如,照片可能是合理的,但其標題可能具有誤導性。

總部位於倫敦的非營利性事實核查機構 Full Fact 試圖避開灰色地帶。它正在利用機器學習來改進一種能掃描文本和視頻腳本的工具,尋找經濟趨勢和法律訴訟等主題的、可被事實核查人員核實的事實類報導。

Full Fact 的自動事實核查負責人 Mevan Babakar 表示,該工具還將來自許多不同新聞來源的類似報導聚集在一起。「因此,在每一天的開始,我都會對我的事實核查員們說,'這是排名前五的像野火一樣蔓延的最熱門報導。'」

Factmata 的 Ghulati 表示,今天的 AI 系統可能還沒有準備好獨立解析複雜的報導或做出關於真相的精細決策,但這並不意味著現在不應該部署它們。「風險在於,你試圖得到假新聞的完美定義,卻永遠得不到答案」,他說,「重要的是要建造一些東西。」

熱門標籤

留言

延伸閱讀