昨天舉行的2020浦江創新論壇全體大會上,圖靈獎獲得者、中國科學院院士姚期智做了《人工智慧面對的一些挑戰》主題演講。在他看來,人工智慧有三大技術瓶頸亟待突破,需要科學家「從0到1」的原創研究。
作為現代密碼學的奠基人,姚期智創立的上海期智研究院今年初成立,目前已匯聚4位兩院院士、20多位科學家和多所高校的青年人才。研究院瞄準人工智慧、現代密碼學、高性能計算系統、量子計算及量子人工智慧、物理器件與計算、生物智能6個方向開展前沿研究。
在姚期智看來,脆弱性是人工智慧面臨的第一大技術瓶頸。人眼識別十分穩定,一個圖像如有微小改變,人仍能一眼看出它是什麼,而人工智慧在圖像識別上卻是能力不足,比如將一隻小豬的照片加入一些圖像「雜音」,機器視覺系統可能會把它識別為飛機。「小豬變飛機」這種漏洞會給人工智慧應用帶來安全隱患。
第二大技術瓶頸是機器學習算法缺乏可解釋性,很多算法處於「黑盒子」狀態。如一個科研團隊開發了一個房地產估價系統,系統通過算法學習了各地房地產價格大數據,從而能自動評估房地產價格。然而,這套算法像黑盒子一樣,很難給出估價的完整依據。這在商業應用上是短板。算法的可解釋性問題亟待科研突破。
第三大技術瓶頸是人工智慧的對抗性較弱。如今,一個無人機群可輕鬆完成燈光秀、農林作業等任務,但要看到,這些任務都是在自然環境下完成,如果是處於高對抗的人為環境中呢?比如在電子競技和軍事戰鬥中,無人機群的協同作戰能力就會受到很大考驗,要在對抗中勝出,需要計算機科學、數學等領域的科學家進行深入的強化學習、博弈論研究,讓無人機群能在高對抗環境中自主找到最優策略。「這是一個很重要的科研方向。」
未來是否會產生「超級人工智慧」?姚期智說,這存在很大的不確定性。但應對這種潛在威脅,他給出了制約智能機器的3個原則:一是利他,即人的利益凌駕於機器;二是謙卑,即機器不能自以為是;三是盡心,即機器能學懂人的偏好。「每個原則都要用嚴格的算法來實現,這樣就能有效駕馭人工智慧。」
【來源:上觀】
聲明:轉載此文是出於傳遞更多信息之目的。若有來源標註錯誤或侵犯了您的合法權益,請作者持權屬證明與本網聯繫,我們將及時更正、刪除,謝謝。 郵箱地址:newmedia@xxcb.cn