6月14日,Facebook發布了一項關於人工智慧機器人的研究。這個已經發布一個多月的研究卻在本周引起廣泛關注,並迅速登上全球各大媒體科技頭條:Facebook的人工智慧機器人以人類不能理解的語言自行對話,嚇得Facebook趕緊關停項目。
關於人工智慧失控的恐怖聯想更是由此發散:「難道我們人類終於創造了弗蘭肯斯坦(英國小說中,科學家弗蘭肯斯坦最終被他創造的『人』毀滅)?」
試想,當機器人以人類聽不懂的語言對話,一個提議發射飛彈,一個說好……這能不讓人類細思恐極嗎?
英國《太陽報》還稱,現實版「鋼鐵俠」——特斯拉創始人埃隆馬斯克最近才警告過扎克伯格。馬斯克稱,人工智慧對人類文明有著根本性的威脅,而小扎對人工智慧的理解太「有限」!
幾天之內,關於「機器人革命」,殺人機器人,邪惡的人類終結者等各種言論接連出現,似乎機器人控制人類,佔領地球的科幻場景即將出現。機器人到底有沒有「背著人類造物主」創造出新語言,是不是能悄悄「串聯」威脅人類文明,還是媒體反應過激了?紅星新聞記者對此進行了深入了解。
引發「恐慌」的實驗
兩機器人以人類無法理解的「語言」對話
這一場恐慌,源於下面這段對話:
Bob: I can i i everything else
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else
Alice: balls have a ball to me to me to me to me to me to me to me to me
這段不明所以的對話發生在Facebook的FAIR項目中兩個人工智慧機器人——Bob 和Alice之間。Facebook為了發展人工智慧,研究人機或機器人之間的「談判」技能,讓這些機器人對球、帽子、書這些物品進行你來我往的商討。他們想讓機器人不僅能進行對話,還完全知道自己在說什麼,能用上談判技巧,跟人討價還價。但這其實不算什麼特別高深的實驗。
一開始,研究人員以為Bob 和Alice之間是一段沒有意義的對話,後來發現,這段人類無法理解的對話其實是有其規則可循的,是完全有效的對話。這一發現震驚了媒體圈:機器人居然自行創造出了人類不能理解的語言!他們在說什麼?他們可能會說什麼?
根據美國著名商業媒體FastCo報導,Bob 和Alice確實是以人類不懂的語言進行了無障礙溝通,但這只是編程者犯了一個錯誤。研究人員沒有設定讓機器人按照人類可以理解的英文來溝通。於是,機器人在溝通中開始以一種類似「速記」的方式,簡化了它們的交流。這段機器人自發形成的相互理解的交流,看起來令人毛骨悚然,但其實可以理解為一個非常簡單的設計bug。
關停真實原因
與預設研究目的不一致
李開復針對Facebook的這次AI項目關停事件還接受了外媒Quartz的約稿。他提到,Facebook官方解釋說了:「兩個機器人為實驗性質,且並沒有發明新的語言,因為他們還是在用『i』、『balls』、『the』等英文單詞溝通,只是沒有了英語語法的這個激勵項,創造了一種新的表達方式而已。」
李開復稱,簡單來說,它們只是英語不太好。至於關停項目的原因,不是「失控」,而是無意義。
Facebook的確關停了這個項目,但並不是因為項目出錯而驚慌失措。Facebook研究員邁克路易斯告訴FastCo,純粹是因為他們這個研究的目的就是「AI 與人溝通」,而不是研究機器人之間如何更有效率地相互溝通。
在結束這個研究後,Facebook稱在個性化的智能助手方面取得了重要進展,其研究的人工智慧有對話、推理和談判等關鍵能力,讓人感覺不出是在和機器人對話。
來自想像的危險討論
這個「意外」沒有媒體認為的那樣可怕
英國獨立報報導,軟體工程師道格拉斯羅伯遜稱,看著一堆文章在那裡意淫即將來臨的機器人革命是一件很搞笑的事情。
英國未來科技專家凱特安德森也說:「這確實看起來有點像是終結者。」但是,這樣的「意外」其實到處都是。現在股票市場上的超高頻率交易的運算其實就是一回事。智能機器能夠獲得新知識,而且並不是每一分鐘都被精確控制。人工智慧可以達到的複雜程度是遠遠超過你我能夠理解的程度。」但這個「意外」根本不是媒體認為的那樣可怕。
而且,Facebook的這次實驗也不是人工智慧第一次創造出新的語言形式。之前,谷歌就曾披露,其用於翻譯的人工智慧就創造出了自己的語言。不過,能翻進翻出,還能更高效快捷,谷歌對這樣的意外發展很是滿意,也任其發展。矽谷人工智慧非營利組織OpenAI的研究也發現,人工智慧能自行創造語言,以便更加高效地溝通。
真正的風險在於人類如何使用人工智慧
FastCo也稱,像這樣的情況確實可能帶來一些潛在問題,比如系統出錯的時候可能很難解決,但這跟機器脫離人類控制也還是兩回事。
當然,確實不能否認智慧機器人被用來作惡的可能,但風險在於人類如何使用人工智慧的力量。這跟人類使用核武器或其他發明是一回事。至少,人工智慧現在還遠遠沒有達到真正「智能」的程度,還只是人類在「鬧著玩」而已。如果有任何真的危險,那就是人類的忽視和愚蠢,而不是機器人開悟而失去控制。希望人類可以足夠清醒,永遠不要去做危險的人工智慧實驗,像帶雷射或者核反應堆的機器人軍隊。
「數十年裡不會出現『全知全能人工智慧』」
人工智慧會隨著科技發展與時俱進,但人工智慧的各種「能」都不是自發性的。李開復稱:「在未來數十年,機器人還不能獨立進行常識性的推理、創造及規劃工作,它們也不會擁有自我意識、情感及人類的欲望。那種『全知全能人工智慧』尚不存在,而且現在已知的開發技術也無法開發出此類機器人。這種技術在未來數十年都不會出現,也許永遠都不會出現。」
▲李開復認為,現在已知的開發技術還無法開發出全知全能人工智慧。圖片來源:視覺中國
當把具有學習能力的兩個機器人放在一起,出現Bob和Alice這樣的情況並不奇怪,但並沒有大家看起來的那麼嚇人。
Facebook這次的AI事件中,機器人唯一能做的事情就是更有效地商討如何交易各自手中的球而已。如果說誰應該為此恐慌,也只是可能會丟工作的談判專家而已。至少,到目前為止,人工智慧還遠遠不能發動「革命」。
紅星新聞實習記者丨林容 編譯
實習編輯丨馮玲玲