能穿針引線的智慧機器人。卜葉攝
■本報記者 秦志偉
「不應該搞通用人工智慧(AI)開發,應該研究其在各領域的專門用途……」
「我的觀點正好相反……」
在日前舉行的世界頂尖科學家論壇上,當上海交通大學計算機科學與工程系特別研究員盧策吾發出「全功能通用AI未來的發展會怎樣」的提問後,兩位圖靈獎得主拉吉·雷迪和曼紐爾·布魯姆為此展開了討論。
拉吉·雷迪雖是持反對意見的一方,但他也並不完全反對。「現在應該專注於增強人的能力,而不只是增強AI的能力,也就是如何使人在AI輔助下完成更多的任務。」
如今,AI與各行各業日益融合,相繼形成智慧製造、智慧醫療、智慧防控、智慧交通等行業解決方案。而這些也只是AI的專用,人類對通用AI的研究和應用一直沒有停止。問題是,人類真的需要它嗎?
越來越智慧的領域應用
近年來,AI技術發展迅猛,使得各行各業變得越來越智慧,人類甚至開始擔心自己未來會不會被AI取代。
以醫療為例,實踐證明AI可以成為醫生的好幫手。英國皇家工程院院士、上海交通大學醫療機器人研究院院長楊廣中就明確指出:「醫療機器人可以通過微創手術,解決人類面臨的某些根本問題。」
從傳統的開放手術到微創手術,減少創傷對患者而言無疑是巨大的福音。傳統開放手術中需要一邊轉向監視器,一邊使用細長、精準的儀器進行手術。因此,早期的機器人手術通過引入計算機運動,來解決這一問題。發展至今,機器人輔助技術進入顯微手術領域的優勢,不僅在於實現眼手一致性,還包括腫瘤切除的靜態修復,並使得術前數據與術中視野更好地結合。
在他看來,未來醫療機器人會很小,而且會變得更敏捷。「可以想像一下,這些代替醫生之手的機器人,不僅擁有靈活的『手腕』,甚至加入了更具控制能力的『肘部』。「楊廣中稱之為「超靈敏儀器」。
為了解決醫療機器人在血管、支氣管、胃腸道等通道中的靈活性問題,與之相適應的蛇形機器人也在不斷被開發和完善。
「醫療機器人成為醫生靈活的手的同時,也自覺承擔起『你是我的眼』的術中角色,這也是機器人技術未來的發展方向。」楊廣中表示,使用機器人輔助的關鍵意義在於,不僅確保了手術過程的準確性、一致性,更重要的是,能夠幫助醫生看到原本看不到的深層信息。
但根據《科學—機器人》編輯團隊為醫療機器人作出的自主性分類,從零到六級分別對應不同的自治級別。「大多數機器人系統都處於零級,換句話說,它們沒有自主權,機器人只是遵循醫生的指示進行操作。」楊廣中說。
通用AI發展之路尚不明朗
儘管如此,楊廣中依然對機器人在手術中自主性的提升抱有期待。
騰訊董事會主席兼執行長馬化騰在去年也曾表示,AI向人類社會繼續靠近,正在從專才向通才發展,實現從專用人工智慧向通用人工智慧的跨越發展,這是重要趨勢。其中重要的一步就是「人工+智能」向自主智能轉化,以AlphaGo的後續版本AlphaZero為代表,人為幹預減少,機器自我學習能力大大增強。
從2016年起,騰訊的AI Lab連續多年打造世界冠軍圍棋AI,隨後和王者榮耀合作開發了AI絕悟。馬化騰介紹,絕悟不依賴人類的經驗,它從零到一自學成才。目前,絕悟已達到了職業水平。
人類好奇,人工智慧發展的路線圖究竟是什麼樣的?
有學者撰文介紹,從可應用性看,AI大體可分為專用AI和通用AI,AI的近期發展主要集中在專用AI領域。中國科學院院士譚鐵牛曾表示,真正意義上完備的AI系統應該是一個通用的智能系統,而通用AI的研究與應用才剛剛起步。
實際上,人類對通用AI的追求有著漫長的歷史。從德國數學家萊布尼茨開始,人類就在持續研究一種無限接近人的思維的機器,其擁有人一樣的智能。但350多年來,人類依然沒有找到答案。在這一過程中,部分學者對通用AI提出了反對意見。
儘管沒有找到解決辦法,但人類並沒有放棄。工業和信息化部原副部長楊學山介紹,全世界有40多個項目正在研究通用AI。如美國2019年的人工智慧戰略六項任務中的第四項依然是通用AI究竟怎麼實現。「但十分遺憾的是,迄今為止,連科學家自己都認為,所有的這些研究都不可能找到抵達通用AI的路。」
如果按照「通用AI是一個機器系統,能夠完成人所有的智能行為」來理解,楊學山認為,把人的智能究竟是怎麼回事搞清楚,才能談通用AI。
拉吉·雷迪承認,AI的確是非常開放的空間,能開發出的東西是無窮無盡的。但他也提醒,一定要看清楚AI未來的重點在哪裡、根本是什麼,這樣才能夠給社會帶來好處。「否則每次說到AI要代替人,會引起恐慌。人變成了機器的奴隸,這是人類不想看到的。」
負責任地發展人工智慧
就目前而言,人類對AI的擔憂仍在繼續。當醫療機器人做手術時,患者會擔心嗎?如果出現問題,誰來承擔責任?承擔的標準是什麼?……
包括醫療機器人在內的AI的使用實現了大數據化的信息採集、傳輸和分析,數據一旦獲取極易存儲,刪除後也能恢復。隨著被採集隱私數據越來越多,信息監管也越來越困難,相應的洩露風險也在增加。除此之外,大量人力被替代還可能引發其他倫理問題。
在國際上,發展負責任的AI已成為共識。如在中國,2019年6月國家新一代人工智慧治理專業委員會發布了《新一代人工智慧治理原則——發展負責任的人工智慧》,強調和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八條原則。
在復旦大學應用倫理學研究中心主任王國豫看來,AI的責任不僅僅包含功能責任,即承擔一定功能的角色責任,也包括行為責任和道德責任。
「要想發展負責任的人工智慧,首先需要負責任的人類。」王國豫表示,AI的行為是人類行為的反映,包括性別歧視、年齡歧視、種族歧視、地域歧視等問題的存在也是由訓練集的歧視所造成的。
如果從這個角度來看,AI不僅僅是一個技術系統,也是和人類社會經濟系統、政治系統、文化系統以及它實現的多維度語境結合在一起的。「必須營造一個技術與環境共同驅動的美德行為,使得人工智慧的發展符合倫理。」王國豫認為,負責任地發展AI人人有責。
來源: 《中國科學報》