人工智慧目前存在哪些技術瓶頸?未來是否可能對人類帶來威脅?今天下午舉行的2020浦江創新論壇全體大會上,圖靈獎獲得者、中國科學院院士姚期智做了題為《人工智慧面對的一些挑戰》的演講。在他看來,人工智慧有三大技術瓶頸亟待突破,需要科學家「從0到1」的原創研究。
作為現代密碼學的奠基人,姚期智創立的上海期智研究院今年初在滬成立。目前,這家新型研發機構已匯聚4位兩院院士、20多位科學家和多所高校的青年人才。上海期智研究院依託清華大學和復旦大學、上海交通大學、同濟大學等滬上高校和科研機構,瞄準人工智慧、現代密碼學、高性能計算系統、量子計算及量子人工智慧、物理器件與計算、生物智能等6個方向開展前沿研究,旨在打造中國人工智慧「夢之隊」,推動以人工智慧為主導的交叉學科發展。
在姚期智看來,脆弱性是人工智慧面臨的第一大技術瓶頸。人眼識別十分穩定,一個圖像如有微小改變,人仍能一眼看出它是什麼。然而,人工智慧在圖像識別方面有點「人工智障」,比如將一隻小豬的照片加入一些圖像「雜音」,一些機器視覺系統居然會把它識別為飛機。「小豬變飛機」這種漏洞會給人工智慧應用帶來安全隱患,比如黑客可以攻擊汽車自動駕駛系統,誘導它將馬路上的「停止」標識當作「通行」,從而引發交通事故。
第二大技術瓶頸是機器學習算法缺乏可解釋性,很多算法處於「黑盒子」狀態。例如一個科研團隊開發了一個房地產估價系統,這個系統通過一套算法學習了有關各地房地產價格的大數據,從而能自動評估房地產價格。然而,這套算法像黑盒子一樣,很難給出估價的完整依據。這在商業應用上是一塊很大的短板,房地產商會懷疑:人工智慧系統是否低估了價格?是不是有利益相關方對系統做了手腳,故意壓價?因此,算法的可解釋性問題亟待科研突破,否則會大幅限制人工智慧的商業應用進程。
第三大技術瓶頸是人工智慧的對抗性較弱。如今,一個無人機群可以輕鬆完成燈光秀、農林作業等任務,但要看到,這些任務都是在自然環境下完成的,如果是處於高對抗的人為環境中呢?比如在電子競技和軍事戰鬥中,無人機群的協同作戰能力就會受到很大考驗,要在對抗中勝出,需要計算機科學、數學等領域的科學家進行深入的強化學習、博弈論研究,讓無人機群能夠在高對抗環境中自主找到最優策略。「這是一個很重要的科研方向,需要從到1的突破。」姚期智說。
隨著人工智慧技術的快速發展,未來是否會產生「超級人工智慧」,進而對人類產生威脅?姚期智引用了人工智慧先驅約翰·麥卡錫1977年對這個問題的回答:「我們需要概念上的突破,需要1.7個愛因斯坦和0.3個曼哈頓項目,可能需要5年至500年時間。」這句話意味著,「超級人工智慧」是否會產生、何時產生,存在很大的不確定性。
為應對這種潛在的威脅,姚期智給出了制約智能機器的三個原則:一是利他,即人的利益應凌駕於機器利益;二是謙卑,即機器不能自以為是;三是盡心,即機器能學懂人的偏好。「每個原則都要用嚴格的算法來實現,並貫穿於設計之中,這樣就能有效駕馭人工智慧。」