影/1天就被網友教壞! 微軟聊天機器人Tay變種族歧視者

影/1天就被網友教壞! 微軟聊天機器人Tay變種族歧視者

▲微軟推出年輕世代聊天機器人Tay。(圖/翻攝自推特)

編譯張岑宇/綜合外電報導

微軟推出年輕世代聊天機器人Tay,在推特(Twitter)使用者的不良教導下,竟在短短24小時內「學壞」,成了個激進的種族歧視者,在推特上發表許多不當言論,之後甚至變成納粹支持者,迫使微軟不得不將Tay下線。

▲微軟推出年輕世代聊天機器人Tay,在推特上發表許多不當言論。(圖/翻攝自foxla網站)

根據《衛報》報導,Tay是由微軟研究院與Bing團隊共同研發,主要是透過「對話式理解」的人工智慧機器人,旨在透過「輕鬆、有趣的對話來和人們互動」,主要鎖定18-24歲的年輕世代。

Tay 原本是設計來與推特網友互動、學習,會說些可愛幽默的笑話、發布令人會心一笑的圖片。沒料到Tay 上線後,網友一起聯合攻擊,一直讓它「學習」種族歧視和冒犯性言論,故意把它「調教」成種族歧視分子,讓它在不到一天內,從一個天真的無邪少女,變成納粹支持者。

▲ Tay 在 Twitter 上的種族歧視言論。(圖/翻攝自Techcrunch

先前,微軟也曾在中國出類似的聊天機器人「小冰」(XiaoIce),2016年1月,微軟AI產品曾出現在東方衛視,它以天氣預報員的身份亮相。約有 4,000 萬人和小冰聊天,創造了成功、愉快的對話。微軟表示,小冰的成功經驗,讓他們想要在文化不同的環境下試試另一個AI。

▲微軟也曾在中國出類似的聊天機器人「小冰」(XiaoIce)。(影片/取自YouTube,若遭移除請見諒)

同樣都是微軟推出,但中西方聊天機器人命運大不同,Tay的命運坎坷許多,不像小冰一樣幸運。微軟發現西方網友跟東方網友對聊天機器人的反應似乎不太一樣,Tay一上線,美國人一股腦地想要教壞立意良善的Tay。

▲ Tay 表示納粹大屠殺是編造的。(圖/翻攝自Techcrunch

微軟表示,雖然工程師有設計避免惡作劇的機制,但還是防不勝防,輕忽某些攻擊,加上某個弱點,導致 Tay 在推特發表了不適當、可憎的話語和圖片。除了Tay,先前也有其他 AI 機器人受害。例如:可口可樂MakeitHappy機器人,還有IBM 科學家創造的Watson,學了超多創意的罵人字眼。

留言

延伸閱讀