作者:
我想你們大概都知道 Facebook 一個 AI 項目失控被迫關閉的事了。據外媒報導,Facebook 於 6 月開始測試的 AI 系統出現了問題,兩個智能對話機器人在對話時開發出了「人類不理解的語言」,目前這個項目已經被 Facebook 自己關閉了,其官方解釋說研究人員「希望 AI 與人溝通,而不是相互溝通。」
但是 Facebook 關閉該項目的新聞已經曝出半個多月了,而其 AI 聊天機器人「創造一種人類無法理解的語言」這事更是六月的舊聞了。為什麼這件事現在又火起來了呢?
原因可能是 Facebook 的創始人馬克·扎克伯格剛剛與埃隆·馬斯克就 AI 威脅論的問題隔空吵了個架,餘熱尚在,Facebook 被迫關閉「失控」的 AI 項目絕對是一波「打臉」的好戲碼,於是我們就看到一波鼓吹 AI 威脅論的聲音此起彼伏。
(有關該事件的外媒報導)
但我們在看了許多外媒文章之後發現,他們並沒有對此事追根溯源,從一開始,他們就把 AI 之間語法不通的英語句子看做了一種全新的語言,而 Facebook 的兩個聊天機器人 Bob 和 Alice 使用的依然是英語單詞,只是語法上沒有任何意義而已。
Bob:「I can can I I everything else."
Alice:「Balls have zero to me to me to me to me to me to me to me to me to."
翻譯過來是:
Bob:「我能能我我所有其他事。」
Alice:「球沒有對我對我對我對我對我對我對我對我對。」
這怎麼看都是英語沒學好啊。
(Bob 和 Alice 的對話截圖;圖源:)Fast Co.Design
對於這件事,人工智慧公司 iPIN 的創始人楊洋表示,其實這種機器亂語的情況早就有了先例,Google 的聊天機器人就出現過這種狀況,「說是新的語言太勉強,反而是將文字符號化,高階語言降為低階語言,或者說機器語言。」
「自創語言」的來龍去脈
6 月的時候,Facebook 人工智慧實驗室發表了一篇文章,介紹了他們如何教 AI 與人類進行談判,他們希望訓練機器人不僅僅是在表面上模仿人類,而是真正的像人類一樣處理事情。
在這個項目上 Facebook 取得了一定的研究成果,他們的機器人在與人進行談判時,人類甚至無法區分出對面的是機器還是人類。
但後來情況發生了變化。
Bob 和 Alice 之間的對話出現了上述那種語法不通的句子,據 Facebook 人工智慧實驗室的研究人員 Dhruv Batra 所說,對話系統出現故障的原因是因為「沒有針對英語語言的獎勵機制」。此前我們報導過,深度學習技術的一個延伸——加強學習(Reinforcement Learning)中,技術人員可以通過設立獎勵機制來規範機器自學習的方向,從而得到開發者更想要的深度學習結果,比如去年 AlphaGo 在升級的過程中就使用了這樣的技術,再比如在這個事件裡,據 Dhruv 的說法,如果研究人員在系統中編寫針對英語語法的獎勵機制,系統就會偏向於更符合英語語法的語言,也就不會出現現在的情況。
我們就此事採訪了 AI 平臺公司三角獸科技的創始人馬宇馳先生,他認為「這應該是一個小題大做的事情,在模型訓練不完善的時候對話,會有類似的情形,理解成沒完成的訓練工作也許更合適。
另外一邊 iPIN 的創始人楊洋也持有類似的觀點:「任何對話,加上 GAN(生成對抗網絡),再做一些語言價值預設作為反饋邏輯,很容易出現這種情況。其實用 GAN 來訓練機器人編程,本來就是這麼個思路。」
說到底,這就是個技術失誤,所謂「英語是一個非常複雜且難懂的語言,對機器學習來說不是很適合」,聽起來非常危言聳聽,好像 AI 像科幻電影裡一樣,已經開始「淘汰人類」了,但事實是,機器只是機器,他們不過是設定好的程序,你見過哪個程式設計師用英語寫程序的?
這一點是各類鼓吹 AI 真的發明了一種語言這種說辭的的文章沒有提到的。
項目關閉原因有待證實
談到 Facebook 關閉該項目的原因,馬宇馳先生的態度非常明確:「Facebook 關閉 AI 項目的原因不可能是這種,應該是外面杜撰出來的」,報導中出現的問題「修復重置等等都可以(解決)」。
據外媒最初的報導,Facebook 的研究員 Mike Lewis 表示,他們關閉該項目的原因是因為目前的情況不符合他們的預期,「我們的目標是讓機器人和人聊天」。
原文裡並沒有給出詳細的採訪過程,也沒有被訪研究員的前後語境,加上文章從一開始就把它當做是 AI 覺醒奇點前兆一樣的事件來看待,確實給人一種科幻成真的感覺,但這其實是有點誤導讀者的意思了,馬宇馳先生也對文章中的採訪內容表示了質疑。
宣傳以外,是人主觀放大了問題
事實上,在人工智慧屢屢成為熱門事件的今天,人們在面對相關事件時其實夾雜著一點「對科幻的嚮往」,無論是《終結者》裡的「天網」還是《生化危機》裡的「紅皇后」,這些科幻故事中的機器反派往往叫人又愛又恨,在聽故事之後,人們往往有一種科幻成真的幻想情節,如果現實中出現了天網會怎樣?這也應該是科幻片最迷人的地方之一吧。
(《生化危機》中的紅皇后;圖源:)YouTube
此前美國的警衛機器人 Steve 故障「投池」就引起了好一波關注,先是在社交媒體走紅,有引起了各大媒體的報導,機器人自殺的笑話瞬間登上新聞頭條成為了熱門話題。有人認為 Steve 工作太無聊了自殺,有人認為巡邏散步的 Steve 思考人生時迷了路……不管怎麼說,都是典型的人的思維。
(警衛機器人 Steve 落水;圖源:)New York Post
但從官方的調查來看,Steve 落水的原因無非是下雨天氣影響或者障礙導致的緊急路線變更導致的,說到底都是尚待修復的 bug,不僅不是機器太過智能,反而是因為不夠智能導致的。
但外界對此的關心其實是有主觀選擇的,大眾對機器故障毫不在乎,但如果說是「工作無聊、投池自殺」就要吸睛得多。
而人們在對待類似的問題時,往往不由自主會去放大這樣的問題,微軟聊天機器人說髒話、機器人投池自殺、Facebook 聊天機器人發明語言……一個個事件累加起來給人一種 AI 越來越失控的感覺,但這種整體的感覺只是表層的感覺,沒有事實的依據,更沒有對每個問題進行深度的探索,加之馬斯克、霍金等大腕發聲宣揚 AI 威脅論,群眾不自覺地就會站在技術真相的對立面。
在一次內部培訓中,創新工場 AI 工程院副院長王詠剛先生就曾表示,在 Google 內部,技術人員甚至不願意將目前大行其道的深度學習技術稱為人工智慧。在他們看來目前家家戶戶熱議的人工智慧還非常初級,遠遠談不上智能。
人工智慧近幾年在商業上的發展是爆發性的,但在技術層面上,人工智慧還在按部就班地原速進步著,我們也沒有必要因為新聞裡故作玄虛的「人工故障」而驚慌失措。
對大多數人來說,我們都希望人工智慧取得突破性的發展來進一步解放人類的初級勞動,但對之寄予厚望的同時,我們也應該多了解一下人工智慧行業內真實的科技發展情況,沒有哪一項技術能在一夜之間取得全方面的突破,這一點是我們必須認清的。科技發展也許很快,但人的學習和適應能力更快,請相信,在「真·人工智慧」到來的那天,人類一定早已做好了準備。
頭圖來源:The Register
宋德