【技術闢謠】Facebook機器人發明語言系誤讀,專家訪談還原真相

2021-02-14 新智元

 來源:Gizomodo,FAIR

報導/編譯:文強,劉小芹,張易

【新智元導讀】Facebook AI 「發展出人類無法理解的語言」 火了,但這實際上源自一些媒體的誤讀和炒作。研究計算機是否能(非監督地)獨立產生自己的語言本身非常有意義,因為這是檢驗 AI 是否理解人類高級語義和抽象概念的好方法。但具體到這件事,Facebook 的 AI 並未發明自己的語言(Facebook 人工智慧研究院也從未宣稱 AI 發明了語言),這只是程序的 Bug。本文將全面回顧和分析這個事件,看一段跑崩了的對話,如何引出了這場眾說紛紜的爭論。

最近 Facebook 的一個 AI 項目火了,而且火得不要太好——稍微上網一搜就能看到:

還有一家英國小報引用一位機器人學教授的話,說這一事件表明,如果類似的技術被用於軍事機器人,將「非常危險,並且可能是致命的」。

 

更多的新聞延伸到未來的機器人革命、殺人機器人、惡意的人工智慧,各種各樣的有關人類滅絕的想像。所有這些,無不引用 Facebook 兩個聊天機器人這樣一段對話:

Bob: I can i i everything else ....

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i everything else ...

Alice: balls have a ball to me to me to me to me to me to me to me to me

有圖有「真相」:

看上去恐怖嗎?

這一切的起因是,上月中,FastCo Design 網站針對 Facebook 利用「生成對抗網絡」開發對話談判軟體的努力做了一篇報導。這篇報導引用的兩個 bot,其設計的目的是證明:「具有不同目標(端到端訓練神經網絡實現)的對話智能體,能夠從頭到尾地與其他 bot 或人類進行談判,並達成一個共同的決策或結果」。

 

兩個 bot 針對給定的話題(例如書籍,帽子,球,都是一些無害的物體),討論如何分割成雙方都同意的部分,除此以外並不做其他事情。

 

這樣做的目的,是開發一個可以從人類的互動中學會談判交易的聊天機器人,它能夠非常流暢地進行對話,終端用戶甚至不會意識到他們在與機器人對話。

就這麼簡單。

然而,FASTCO 的報導寫道,「FAIR 的談判智能體利用強化學習和對話推演(dialog rollouts),表現與人類談判相當……這證明 FAIR 的 bot 不僅能講英語,並且對要講什麼也是有過思考的。」

 

更要命的是,文章引用了專業人士的評價——「智能體會脫離人類可以理解的語言,發明自己的代碼語言。」那篇文章引用 FAIR 訪問研究員 Dhruv Batra 的話說,「就好比我說 5 遍 『the』 這個單詞,你會理解為我想要 5 個這個東西。這與人類發明簡略表達的方式並沒有太大不同。」

於是事情一發不可收拾。

Facebook 研究人員親自闢謠:我根本不是那個意思

在繼續討論前,我們先來看  FAIR 訪問研究員 Dhruv Batra 自己的澄清。

Dhruv Batra 是 FAIR 研究員,也是對話模型那篇論文作者之一,他在自己的 Facebook 主頁回應道:

 

我剛從 CVPR 回來,就發現我的 FB/Twitter 的時間流充滿了這些說 Facebook 的研究員開發的 AI 智能體發展出自己的語言,描述各種世界末日景象的文章。

 

我不想針對某篇具體的報導,或者對某個斷章取義的引用提出具體的回應,但我認為這樣的報導只是為了賺眼球,非常不負責任。

 

AI 智能體發展出自己的語言這種說法可能令人震驚,或讓這個領域之外的人感到意外,但這是發展了很多年的 AI 的一個子領域,相關研究文獻可以追溯到幾十年前。

 

簡單地說,環境中的智能體試圖解決一個任務時,通常會找到一種方式來最大限度地提高回報(reward)。分析這個回報函數並改變實驗中的參數,與「關閉 AI 項目」完全不是一回事!如果這能一樣的話,每個 AI 研究者在停止某個機器的工作時都在「關閉AI項目」。

 

Batra 希望大家都閱讀一下他們的研究論文或者 FAIR 博客上的介紹文章,並閱讀各個研究團體有關多智能體語言出現的文獻。

用戶「蔡曦」結合報導中提到的 Facebook 論文《Deal or No Deal?End-to-End Learning for Negotiation Dialogues》,做了比較詳細的分析。

論文的大致流程是,用人類的對話作為數據集,訓練一個端到端的模型,模仿人類進行物物交換的談判對話,例如:

論文用 5808 組人類對話作為訓練集,526 組對話作為測試集,分別用兩種不同的模型(Likelihood Model 和 Goal-based Model)和不同的訓練方法(一種是用 RNN 作簡單的監督學習,另一種是用監督學習先作預訓練,再用強化學習來微調模型),在 PyTorch 上跑對話模型。

結果是,直接用簡單的相似度導向(Likelihood-based)的監督學習產生的對話與人類的語言(英語)最接近。

而運用目的導向策略(Goal-based)的強化學習模型情況下,當更改相關參數後就會產生雜亂無章的對話。注意:這並不代表產生了一種新的語言並且兩個 agent 相互理解,只是基於訓練時輸入的英文單詞的錯誤組合而已!

一位不願透露姓名的業內人士對新智元表示:這就是訓練失誤的模型。做失敗的東西也能拿出來吹,有些媒體的做法確實欠妥。當然,這一波是國外媒體先如此報導的。還是希望這個領域的媒體多些理性,不要看到是 Facebook 或者谷歌的研究就吹。

聚焦研究:論文並沒有關於「AI 發展出自己語言」的表述

再來仔細看 Facebook AI Research 的論文——需要指出,Facebook 研究人員並沒有在論文中表示其 AI 發展出了自己的語言(developed their own language)。


至於「吹不吹」,還是需要在理解的基礎上進行判斷。Facebook AI 這條新聞出來這麼久,還沒有多少新聞在報導時真正聚焦研究本身,這或許也是炒作甚囂塵上的一個原因。

FAIR 進行研究的目的是讓智能體學習談判。

談判既是語言也是推理問題,在談判時你需要有一個意圖,然後在口頭(或文本)上實現。由此進行的對話同時包含了合作和對抗的要素,這就要求 AI 需要了解並制定長期規劃,並生成話語以實現其目標。

FAIR 研究人員在開發這種擁有長期規劃能力的對話 AI 方面進行了一種創新,他們稱之為「dialog rollouts」。

Dialog rollouts 能讓 AI 收到輸入後,推算出(roll out)多種模擬的對話,直到每段對話的結束,然後從中選擇結果最好(也即預期獎勵最大)的對話路線來進行。

下面是示意圖,選擇得分為 9 的最下面那條路線,顯然結果最好(能夠拿到 3 頂帽子)。

實際上,類似的思路也被用於遊戲環境中的規劃問題,但 Facebook 研究人員表示,這種方法此前還從未被用於語言研究,原因是可以選擇的行動數量過於巨大

為了提高效率,FAIR 研究人員首先生成了一小部分備選的表述(utterance),然後重複模擬未來的整個對話,從而估算這種表述成功的程度。FAIR 開發的這種模型,預測準確率足夠高,從而在好幾個方面極大提升了談判策略:

更努力地談判(Negotiating harder):新的智能體能與人類進行更長時間的對話,不會那麼快就成交。模型會一直談判一直談判,直到達成協議。

有策略地談判(Intelligent maneuvers):在一些案例中,智能體在最開始會對自己不感興趣的東西裝作很感興趣,之後把這些東西放棄,顯得自己做出了妥協——人在談判時也常常使用這種策略。FAIR 研究人員表示,這不是編程實現的,而是 bot 自己觀察後認為這是一種實現目的的好方法。

生成新的句子(Producing novel sentences):神經網絡往往傾向於重複訓練數據中見過的句子,但在這項研究中,模型在必要時生成了新的句子。

從 Facebook 官博上給出的例子(見下),這個談判 AI 開發還是成功的:

AI 用人類不懂的方式溝通非常正常,難的是讓 AI「說人話」

現在,Facebook 確實關閉了這個對話項目,但並不是因為他們對創造出可能不受控制的智能體感到恐慌。在 FastCo 的報導中,FAIR 另一名研究員 Mike Lewis 說,他們決定關閉對話,因為「我們感興趣的是做能夠與人類對話的 bot」,而不是 bot 互相間能夠很有效率地進行對話,「我們要求 bot 相互之間的對話要能夠被人理解」。

 

但在這個媒體浮誇的時代,新聞報導所做的可能與這些機器人並沒什麼不同,這個故事從關注機器學習技術的短期實現潛力,演變成製造恐慌的末日故事。

 

實際上,正如 Dhruv Batra 所說,AI 之間「交流」是非常普通的一個現象,只要你把兩個機器學習設備放在一起,並讓它們相互學習,都會出現這樣的現象。值得一提的是,假如 bot 之間簡略的「語言」可以解釋,出來的對話也就能夠理解,並且完全不像之前的那麼可怕。

 

這類機器學習技術可能讓智能設備或系統更高效地相互交流。如果說這些成果引出一些問題,就是一旦這樣的系統出錯,debug 會非常不容易!但這完全不是說人工智慧脫離了人類的控制。

上海交通大學教授、斯坦福 AI Lab 博士後盧策吾在接受新智元採訪時表示,這件事情告訴我們,沒有很 solid 和 novel 的工作,PR 需謹慎,可能對自己和機構都是副作用。研究計算機是否能(非監督地)獨立產生自己的語言,這件事情本身是非常有意義的科學探索,因為這是檢驗計算機是否理解人類高級語義和抽象概念的好方法。

他也建議大家有興趣的話,可以看一下Noam Chomsky 的經典討論,這樣更能把語言產生這件事的高度提高一下。

「這就像一個與世隔絕的部落,AI 獨立產生了自己語言,雖然符號表達和我們不一樣,但是我們一翻譯,發現它們有和我們一樣的高級語義,比如「朋友」,「愛情」等等,我會說他們真的理解這些概念,具有人類的高級智能。」盧策吾告訴新智元。

目前,計算機能識別「貓」,「狗」,「汽車」,但計算機真的理解這個概念嗎?盧策吾認為不一定,更多是像模式識別(pattern recognition)。「例如,有一輛外形奇怪的車,在訓練集合裡沒出現過,計算機馬上就掛了,因為計算機沒有『什麼是車』這個概念,而是記下一般情況下車的長相。」盧策吾說:「這樣就看出,目前計算機沒有真正全面地理解人類概念,還是比較低級別的 AI。如果計算機真的理解人類概念,其對現實世界的改造威力將會大上好幾個量級。」

 

盧策吾教授研究組的一個 topic 是讓計算機看大量視頻,然後(非監督地)獨立發明詞彙。目前結果應該說是「非常崩潰的」,計算機只能推斷出一些「顯而易見」的概念。

「我們發現第 1242 號詞彙(pattern)好像是對應『走』的意思——其實這是很低級別語義,沒什麼意思——更深刻概念就根本抓不到,還在探索中,探索路上經常被打擊。分享一下我們一些比較崩潰的研究經歷,就是想說,計算機獨立發明語言是一件非常艱難的事情。但這是窺探強人工智慧的一個好工具,我相信逐步一點點推進還是有可能的。」

參考資料

Facebook 研究人員 Dhruv Batra 的澄清:https://www.facebook.com/dhruv.batra.dbatra/posts/1943791229195215?pnref=story

知乎用戶周曦的回答:https://www.zhihu.com/question/61296365/answer/186652596

Facebook 官博論文介紹:https://code.facebook.com/posts/1686672014972296/deal-or-no-deal-training-ai-bots-to-negotiate/

Gizmodo 事件回顧:http://gizmodo.com/no-facebook-did-not-panic-and-shut-down-an-ai-program-1797414922

【號外】新智元正在進行新一輪招聘,飛往智能宇宙的最美飛船,還有N個座位

點擊閱讀原文可查看職位詳情,期待你的加入~

相關焦點

  • 還原留法真相:BAC+5被誤讀留法生很惱火
    《非你莫屬》節目引發一場「法國大學文憑打假」風波 讓我們還原法國留學真相——在5月20日的《非你莫屬》節目中,留學法國歸來的求職者郭傑,因被女老闆文頤和主持人張紹剛質疑其學歷的真實性而暈倒在舞臺上。此事掀起了一場「法國大學文憑打假」的風波,引起了大家對於留法學生文憑的關注。
  • 葡媒體用完整照片還原真相闢謠,《太陽報》編虛假故事
    關於《太陽報》宣稱的穆裡尼奧這段長達8年的地下情報導,葡媒體《記錄報》用完整照片為穆帥還原真相闢謠:《太陽報》根據一張不完整照片編造虛假故事。事情的真相是《太陽報》截取了完整照片的一部分發給全世界的球迷們看,然後根據這張不完整的照片開始胡編亂造,稱穆帥有一段長達8年的地下情。
  • 網傳喝飲料易引發白血病 當事醫院闢謠:系誤讀
    天津醫院:展示板內容被誤讀據網傳的微博顯示,其附上了一張天津醫院營養科的宣傳照片,照片裡有「你知道你喝了多少糖嗎」主題展示板,將果汁、碳酸飲料、涼茶、茶飲料、運動型飲料、飲用水等飲料品類的含糖量以白糖實物的形式展出。
  • Facebook在香港佔中事件中的作用及成因——基於訪談的總結分析
    關鍵詞:facebook 佔中 社會化媒體 社會運動 從北非的茉莉花革命開始,社會化媒體被廣泛地運用於社會運動之中。在此次香港佔中事件中,facebook發揮的作用不容忽視。本文基於對香港市民和學生的訪談,總結了facebook在佔中事件中的作用,同時分析了為什麼facebook能夠產生相應的影響。
  • 【闢謠】無糖飲料走紅,這些真相不得不知!
    【闢謠】無糖飲料走紅,這些真相不得不知!用代糖來還原飲料的口感、贏得低糖的稱號,企業這招顯然很成功。但需要注意的是,也不能因此就「敞開了喝」。有專家表示,所有甜味劑的原理都是在欺騙大腦,大腦接收到甜味信號後,卻發現血糖沒有上升,反而會增加對真糖的渴望,這樣可能不利於減重。此外,很多無糖飲料還含有咖啡因,喝多容易導致上癮,過度飲用無糖碳酸飲料會引起腹脹、胃腸脹氣等不適。
  • 娜晟東:抽絲剝繭還原真相 為刑事偵查提供技術支撐
    娜晟東是丹徒公安分局刑事科學技術室主任,他數十年如一日奮戰一線,於細微之處發現關鍵證據,抽絲剝繭後還原案件真相,為刑事偵查提供了技術支撐。2020年,他被公安部評為江蘇省「十佳優秀現勘人員」。今年38歲的娜晟東,畢業於中國刑事警察學院,從警已經16年,在他看來,從事自己這份工作需要有較強的責任心和邏輯思維能力,案件偵查中,要根據不同的犯罪現場甄別犯罪者的作案手段,通過現場還原搜索證據,多年來,他一直以「讓證據說話,對真相負責」為工作信條。
  • 闢謠平臺:木瓜能豐胸、孕婦需穿防輻射服均為謠言
    12日上午,北京地區網站聯合闢謠平臺首次發布「闢謠10大最流行生活謠言榜」。首都網際網路協會新聞評議專業委員會2013年度第二十三次會議暨「北京地區網站聯合闢謠平臺」建設進展情況新聞通氣會在果殼網召開,果殼網正式加盟平臺,並作為代表首次發布「闢謠10大最流行生活謠言榜」。
  • 石正麗/金梅林團隊發表聲明:貓群感染被媒體誤讀,研究者...
    (歪曲圖文部分截圖) 同時,受其影響,越來越多的媒體和個人也誤讀了石正麗/金梅林團隊的研究論文。 有些人開始打算遺棄貓,有些人甚至在網上呼籲捕殺流浪貓!
  • 專家釋疑霧霾七大誤讀
    記者昨日從環保部獲悉,針對社會公眾對於重汙染天氣存在的一些誤讀和疑問,環境保護部20日邀請八位專家一一解讀,問題涉及京津冀的霧霾是哪的汙染造成,北京霧霾究竟是什麼原因以及抗霾方法等。   誤讀1   京津冀的霧霾,其主要是由內蒙古、陝西、山西這三個省區為主要汙染源造成的,而霧霾最嚴重的京津冀三地自身產生的汙染是次要的。
  • 10萬+誤讀背後的真相!
    中國網特別約訪芬中教育協會及中國教科院中芬教育學者,期望撥開雲霧,還原10萬+背後的真相。一文,用確鑿的事實和證據對火爆朋友圈的上篇文章提出質疑和批判,認為所謂廢除分科教學的說法純屬誤讀。  究竟背後真相如何?筆者經過調查,期望還原真實的芬蘭教育現狀。
  • 好萊塢專家發明機器人海豚,充電一次可遊10小時,跟真海豚沒兩樣
    好萊塢專家發明機器人海豚,充電一次可遊10小時,跟真海豚沒兩樣。 與動物學專家一起,他們的目標是製造一種與活生生的寬吻海豚一樣大小的寬吻海豚。 特效藝術家沃爾特康蒂,我們看到其背後的大屏幕海洋生物,如自由威利和Flipper已經幫助開發了一個42石原型,遊泳連續10個小時,只需一次電池充電。它也有黃色的牙齒,在測試的過程中觀眾無法猜測它是假的。
  • 網友總結被誤讀的名言 "執子之手,與子偕老"歌頌戰友情
    最近,百度知道開設「解惑」專題,列舉了8個被誤讀最深的名言警句,讓網友大長見識。眾人表示:「語文白學了,原來自認為的那些勵志名句竟是斷章取義!」揚子晚報記者採訪了「答題者」——專欄作家、南京人陶短房,了解到解讀背後的故事。
  • 真相還原:玩的不是「偷菜」是QQ圍棋遊戲
    第2頁:南京兒童醫院12人受處分 第3頁:嬰兒母親至少三次跪求醫生施救 第4頁:調查「還原了事情的真相」 第5頁:「嬰兒徐寶寶死亡事件」調查手記   真相還原: 玩的不是 「偷菜」,玩的是QQ圍棋遊戲  聯合調查組動用保密部門特殊軟體還原上網記錄
  • 今日闢謠 | 口罩內墊紙巾能延長「壽命」?真相是這樣!
    今日闢謠 | 口罩內墊紙巾能延長「壽命」?真相是這樣!買不到口罩,網民們就發明了種種延長口罩使用時長的方法,也流傳出很多關於口罩的謠言。「口罩嘴巴處墊一張紙巾,可以延長口罩的使用時間,換紙巾後口罩就能接著用。」這個秘方在微信群裡流傳,買不到口罩的市民戴起了「一次性紙巾」口罩。但實際上,這個方法並不科學。據了解,口罩一般分為三層,外層為防滲透層、中間為熔噴無紡布過濾層、內層為吸溼層。
  • 《李白那年三十整》:打破詩仙光環,還原一個被誤讀了千年的李白
    青年作家周白之白在《李白那年三十整》中,將塵封在歷史中的李白以及與李白相關的種種匯聚一堂,為你還原一個被誤讀了千年,那個真實得你不太想承認的李白。 儘管李白的詩一貫大氣,但我們依然能在隻言片語中讀出他渴望走入仕途封侯拜相的真相,這是他一生的夢想,也是一生的遺憾。 在經歷過喪妻、飄蕩、安史之亂、嘲諷冷眼以及無數生死考驗之後,滿腹才學的李白愈發滄桑,卻仍在心底吶喊:為什麼沒有人願意請我幹大事? 李白有才嗎?當然。
  • 闢謠啦!還原高速口查車上滅火器和三角架的事實真相
    近期又在朋友圈內再次傳出,為了讓各位車友了解事件真相,高速交警給出了官方的正式回復並希望廣大車友不要再被謠傳所矇騙。下面,我們就一起來看一下高速交警是怎樣幫我們還原事實真相的吧!(七)駕駛安全設施不全或者機件不符合技術標準等有安全隱患的機動車的。」的規定,處以200元罰款,不記分。另外,根據《中華人民共和國道路交通安全法》第二十一條「駕駛人駕駛機動車上道路行駛前,應當對機動車的安全技術性能進行認真檢查;不得駕駛安全設施不全或者機件不符合技術標準等具有安全隱患的機動車。」
  • 聽說Facebook的倆機器人偷偷聊天,嚇得人類趕緊拔電源!真相究竟是……
    泥萌可能說的是機器人語言! 誰能想到外表高冷的人工智慧機器人竟能說出如此讓人噴飯的話……難道說,技術宅屬性都難逃「悶騷」的內心?其實,上面這句自帶萌屬性的話可能是AI自創的語言!最近,Facebook家的兩個機器人居然一言不合就用這樣的語言「尬聊」了起來,研究人員二話不說趕緊把他倆電源拔了……難道說,AI失控了?
  • 反轉,肖戰粉絲再次背鍋,官方抽絲剝繭還原真相
    美好的事情並不一定總會到來,但是有些事情的真相一定回來。在肖戰慶生之際,粉絲們都很清楚什麼該做,什麼不該做。很多粉絲都很克制和冷靜,只是簡單地表示祝福。但是在慶生之後,還是有很多對肖戰粉絲們不好的消息。
  • 【明醫識藥·科學闢謠】吸氧是「救命」標配?吸多了還會成癮?真相...
    【明醫識藥·科學闢謠】吸氧是「救命」標配?吸多了還會成癮?真相和你想的不一樣…… 2020-07-31 12:45 來源:澎湃新聞·澎湃號·政務