好萊塢電影甚至我國香港的商業片,都已經向人們呈現過高度智能的機器人。《星球大戰》迷一定不會忘記那個關鍵時候提升而出的機器人R2-D2,而終結者以及跟隨它不斷穿越時空到現代的智慧機器人,目的都是為了殺人(當然,施瓦辛格版終結者在系列電影中逐漸完成了「覺醒」。這些電影所呈現的智慧機器人,功能相當強大,以至於讓人感到害怕:要是機器人有了意識怎麼辦,真的像電影裡演的那樣,發起了起義又該怎麼辦?
紐約大學心理學和神經科學教授、新矽谷機器人創業公司RobustAI執行長兼創始人、機器學習公司「幾何智能」執行長兼創始人、優步人工智慧實驗室創始人蓋瑞·馬庫斯,與紐約大學柯朗數學科學研究所計算機科學教授歐內斯特·戴維斯合著的《如何創造可信的AI》一書中指出,「我們最大的恐懼,是人類對不可能發生的事情存在不合理的擔心,而致使機器人革命胎死腹中。」
就目前以及可預見的未來一段時期而言,不僅根本無法誕生電影中的「殺手」、「保鏢」機器人,而且連動畫片裡呈現的多功能機器人管家也沒有誕生的可能。這本書的作者指出,多數機器人目前及未來都會聚集在那些人類不想做的、流程化、簡單化的工作上,比如裝配線、倉庫。而在當下,最暢銷的機器人實際上僅僅是智能程度很低的掃地機器人,各家企業還不能推出超越吸塵這一簡單任務,能夠幫助我們打開罐子、擰開瓶蓋、拆開信封、除草、修正樹籬、修剪草坪、包裝禮物、給孩子換尿片、給老人換藥、整理餐桌的機器人。
為什麼我們會錯誤的恐懼「機器殺人」?
為什麼從上世紀中期開始,人們一方面就在積極展望機器人革命到來後的生活便利,另一方面又恐懼「機器換人」甚至「機器殺人」?《如何創造可信的AI》一書提出,人工智慧誕生之初,「業界專家就保持著願景有餘,『落地』不足的傳統」,輕率的斷言在一個不太久的未來節點會誕生具有強大功能和兼容性的通用人工智慧。比如,無人駕駛汽車企業從10多年前就宣稱很快、最多1-5年就會讓替代人類手機的產品實現普遍覆蓋,然後逐漸調整自己的時間表;又如,IBM的沃森機器人曾與美國、德國等多家頂尖醫療機構合作,並被視為可以替代人類醫生為患者提供檢查、診斷服務,但機器人不但檢查的精準性不足,而且連剛入學的醫學生能夠識別的一些導致嚴重問題的症狀也不能做到清楚識別。
在《如何創造可信的AI》書作者看來,過高的估計人工智慧的實際能力,輕率斷言,把一點點小進步描繪成意義非凡的革命。書作者建議,讀者如果以後再聽說某個成功的AI案例,可以用6個問題來進行甄別:第一,該AI系統究竟實實在在地做到了哪些事?第二,成果的通用性有多強?第三,有沒有演示程序,能否用眼前的例子來演示?第四,如果出品方或研究人員稱此AI系統強於人類,具體指的是哪些人類,強出多少?第五,該人工智慧將人類與真正的人工智慧拉近了多少距離?第六,如果是無人駕駛汽車,能夠經訓練在白天出行,是否也能在夜間或雪天出行,如果路中新增了一個地圖中沒有的繞行標誌,系統是否知道如何應對?
儘管近年來包括美國、中國、日本、歐洲等國家和地區,以及全球主要的科技企業都在人工智慧、機器人等領域投入了巨額資金,取得了可觀進展,但「當下的繁榮局面背後,缺少了某些本質上的東西……機器在許多方面依然無法和人類相提並論。」
書中舉例指出,在閱讀方面,人可以在一秒內進行句法分析,並對照自己已有的知識,從而解析新句子、段落、故事、理論——但在目前和已知未來,AI項目根本達不到這樣的理解水平,甚至連朝這個理解水平發展的動力都不具備。正是因此,許多藉助AI進行運轉的社交媒體平臺才會出現為了獲得點擊率而向用戶推薦胡編亂造、標題「語不驚人死不休」的故事,虛假新聞因而大行其道。道理很簡單,算法、人工智慧目前根本無法理解新聞的內容,無法判斷其中的講述是真是假。
人工智慧當下發展中的多方面風險
我們當下已經越來越多的依賴於數位化助理。比如手機裡的Siri等智能助理,通過其來幫助我們設定鬧鐘、安排日程、提出提醒。但無論是軟體式的智能助理,還是相應的硬體,迄今都未能很好的解決一個問題,即機器對人類的弦外之音甚至含混不清的表達。如果你給保潔機器人說將客廳的東西都收到衣櫃裡,結果回家一看,客廳裡的每一樣東西都被裝進了衣櫃裡,而且為了能裝進去,機器人還將電視機、家具、地毯都分拆成了小塊。
據此,這本書提出了人工智慧當下發展中的多個風險,第一,基本超歸因錯誤。用戶、設計師、科學家往往錯誤的認為機器具有與人類似的智慧,但其實根本沒有。
第二,魯棒性的缺失,以無人駕駛汽車為例,目前還不能很好的應對不常見的天氣、路面瓦礫、交通擁堵,以及人類做出的不常見動作和姿勢。
第三,現代機器學習嚴重依賴於大量訓練集的精準細節,但不能很好應用於訓練過的特定數據集之外的全新問題。一些自動駕駛汽車只能在指定城市(事先訓練過的)駕駛,而不能很好的適應其他城市的環境。
第四個風險是,因為對數據分析的盲目依賴,而助長了原有的社會偏見。有用戶通過谷歌進行搜索,發現黑人常用名字匹配的圖片多為罪犯、逮捕記錄,而白人常用名就不是這樣。而在一些情況下,粉絲可以通過「刷」搜索的方式,讓自己的「愛豆」(痴迷崇拜的對象)在搜索結果的排序中排名靠前。同樣的,2016年的美國總統大選後,對於川普強烈不滿的很多美國網民就通過「刷」谷歌的辦法,將川普與一些負面標籤牢牢的「綁」定。
第五個風險是,目前的人工智慧對於訓練集嚴重依賴,也會引發有害的回音室效應。比如,我們採用雙語文本翻譯小程序對某段中文進行翻譯,再將得出的英語譯文重新用小程序翻譯為中文,幾遍下來,原本流暢的原文就會變得完全語義不通。人工智慧採集的很多所謂的高質量人工標記數據,其實都是機器自動生成的,由此得出的分析結果只能說是謬以千裡。
其他風險還包括,很容易落入錯誤目標的陷阱。比如,如果設計一款踢足球的機器人,要求其儘可能多次數的觸碰足球,這本意是要機器人多帶球、傳球,卻很難避免機器人守在原地,踩著球不停地快速抖動。
《如何創造可信的AI》書中提出,目前科學界必須花費巨大精力,克服上述風險,在可能未來較長的時期中,培養出能夠擁有常識、對周遭事物產生真正理解的機器,要經得起工程實踐的考驗,機器內部要內置失效保護機制(防止機器對人造成致命傷害以及其他失控風險);要能夠用深度理解來取代深度學習,並賦予機器以道德價值觀。(本文首發頭條號「渝川讀書」)
所評圖書:
書名:《如何創造可信的AI》
作者:(美)蓋瑞·馬庫斯、歐內斯特·戴維斯
譯者:龍志勇
出版社:浙江教育出版社、湛廬文化
出版日期:2020年6月