在剛剛過去的聖誕節前夕,以 「推動 AI 前進:跨學科方法(Moving AI Forward: An Interdisciplinary Approach)」 為辯論主題的 AI Debate 2 如約舉行,Ryan Calo、Yejin Choi、Daniel Kahneman、李飛飛(Fei-Fei Li)、Celeste Kidd 等 16 位全球領先的計算機科學、神經科學、心理學、倫理學等研究領域的頂級科學家在線參與了辯論活動,共同探討人工智慧領域的發展現狀、熱點問題和未來的發展方向。
Robust.AI 的創始人兼 CEO、紐約大學名譽教授 Gary Marcus 是第二年參加 AI Debate 系列活動,在題為 「the debate of next decade—how can we take AI to the next level?」 的演講中,Marcus 表示:「去年,在 12 月的第一場年度 AI Debate 中,我和 Yoshua Bengio 針對僅靠大數據和深度學習是否足以實現通用人工智慧(AGI)?這一問題展開了一場辯論,我認為那是過去十年關鍵的一場辯論。」
2019 年 12 月 23 日,Gary Marcus 和 Yoshua Bengio 就 AI 的最佳發展方向進行了辯論。兩位重量級的專家為全球的觀眾帶來了一場精彩的 AI 辯論,就推理、神經網絡、深度學習等領域展開討論,而這也激發了人們對於深度學習需要什麼先天知識、量子計算是否會改變人工智慧等方面的思考,對推動 AI 的普及和發展,意義非凡。
那麼,今年的 AI Debate 上,各位大佬們又有哪些精彩討論呢?
整體而言,本屆 AI Debate 活動歷時 4 小時,分三個討論小組進行。
(來源:Synced)
Panel 1: 架構與挑戰小組 (Architecture and Challenges)
參與成員:Yejin Choi, Luis Lamb, 李飛飛,Robert Ness, Judea Pearl, Ken Stanley 和 Rich Sutton
史丹福大學計算機科學系教授、斯坦福人類中心人工智慧研究所聯席主任、AI4ALL 聯合創始人兼主席李飛飛以 「尋找下一個 AI 北極星(In search of the next AI North Star)」 為題,拉開了架構與挑戰小組討論的序幕。
李飛飛提到,提出問題是任何解決方案的首要步驟,人工智慧的研究也不例外。在過去二十多年的時間裡,目標識別(Object recognition)作為人類智能的一個關鍵功能,一直引導著人工智慧領域的研究人員致力於將其部署在人工智慧系統中。
那麼現在,站在另一個新時代的起點,我們不禁要問 「下一個 AI 北極星是什麼?」(What is the next AI North Star?)
李飛飛表示,受人類和動物神經系統進化研究的啟發,她相信下一個關鍵的人工智慧問題是,如何利用感知和行動來學習和理解世界,以此來構建交互式學習代理。
巴西南裡奧格蘭德聯邦大學教授、南裡奧格蘭德聯邦創新科學技術國務秘書、機器學習研究員 Luis Lamb 認為,目前人工智慧的關鍵問題是,如何確定充分必要的構建模塊,以及如何開發出可解釋、可協作、可信賴的機器學習系統。
DeepMind 的傑出研究科學家、加拿大阿爾伯塔大學的計算機科學教授 Richard Sutton 也認為,在提供解決方案之前,了解問題非常重要。他指出,人工智慧的計算理論出奇的少,在神經科學領域,在某種更高的層次上,我們確實缺少對整體思維的目標和目的的理解,在人工智慧中也是如此。
Sutton 表示,人工智慧需要一種約定俗成的計算理論,他認為強化學習(reinforcement learning,RL)可以被視為第一種智能計算理論,因為該理論明確說明了其目標,即智能的概念和原因。
OpenAI 研究經理、佛羅裡達大學計算機科學教授 Ken Stanley 表示,眾所周知,AI 可以解決一些問題,但我們人類能夠做的事情是非常獨特的。隨著人類表現出的 「開放式創新」,人工智慧領域的研究人員同樣需要在人工系統中追求開放式。
Stanley 強調了理解使智能成為人類根本的重要性。他指出了他認為智能被忽略的幾個維度:分歧性、多樣性保存、階梯式收集等。
圖靈獎得主、加州大學洛杉磯分校認知系統實驗室負責人 Judea Pearl 通過發展微積分的概率和因果推理,為人工智慧的基礎性研究做出了貢獻。他認為,下一階段的人工智慧系統需要增加知識驅動,而不是保持數據驅動。
(來源:ZDNet)
AAAI20 Outstanding Paper Award 獲得者、華盛頓大學副教授 Yejin Choi 認為,對世界或常識的認知是基礎性理論缺失的部分。
Panel 2:神經科學與心理學的洞見(Insights from Neuroscience and Psychology)
參與成員:Danny Kahneman,Christof Koch,Adam Marblestone,Doris Tsao 和 Barbara Tversky
來自神經科學和心理學小組的研究人員,圍繞諸如如何理解大腦的反饋機制、如何幫助建立更好的 AI 系統等話題,分享了他們的觀點。
諾貝爾獎獲得者 Daniel Kahneman 指出,大家會認為在 Thinking, Fast and Slow 一書中提到的系統 1 和系統 2 概念,前者是一種工作速度較快的系統,而後者工作速度則相對較慢。
「但事實上,正如我在書中所描述的,系統 1 和系統 2 的最主要區別並不在此,而是一個發生在你身上,而另一個需要去做更高水平的處理。語言、想法、情緒等都發生在你的身上,但這些都不需要做額外的處理。
Kahneman 表示,系統一事實上更為複雜和豐富,它能夠對世界進行表徵,這種表徵代表了對世界的模擬。我們也是依賴系統一對世界的表徵進行生存。大多數發生在我們身上的事情,並不會讓我們感到驚訝,但也不會讓我預料到我接下來想要說什麼。
我們處在正常谷裡,我們並沒有期待,系統一接受許多事件的發生,認為這些事件只不過是已發生事件的正常延續。但它也會拒絕一部分事情,這些正是那些讓我們覺得吃驚的事情。因此,系統一能夠把這些 「非正常」 的事情與正常的事情區分開來。而前面 Pearl 提到的反事實推理,許多都是發生在系統一中。因此,常識和因果關係出現在系統一當中,而非系統二。
(來源:ZDNet)
艾倫腦科學研究所研究員 Koch 斷言:「不要指望神經科學來幫助人工智慧。」他表示他所在實驗室的大規模實驗都揭示了大腦的複雜性遠遠超出了在深度學習模型中所見的範圍。
(來源:ZDNet)
Koch 表示:「了解大腦將需要一兩個世紀,在大腦的組成結構中尋找靈感,以加快 AI 的研究速度是錯誤的。」
Panel 3: 邁向可信的人工智慧(Towards AI we Can Trust)
成員:Ryan Calo,Celeste Kidd,Margaret Mitchell 和 Francesca Rossi Towards AI We Can Trust 小組主要聚焦於 AI 倫理以及如何處理機器學習系統中的偏見問題。
加州大學伯克利分校教授 Celeste Kidd 說:「算法偏見問題不僅在於它所造成的直接危害,還對它如何影響人類的信仰造成了連帶的危害。」
Kidd 的實驗室主要研究人類是如何在世界中形成信仰,以及如何形成對世界的認知。Kidd 表示,不道德的人工智慧系統是存在問題的,因為它們可以無縫地嵌入人們的日常生活中,並不時地具有破壞性,而且可能會用無法彌補的方式改變人類的信念。他說:「這裡的重點是,人工智慧系統中的偏見會加強使用者的偏見。」
Kidd 表示,現在是人工智慧倫理學面臨的一個可怕時期,特別是在谷歌解僱 Timnit Gebru 的事件發生後。她說:「很明顯,私人利益不會支持多樣性、公平性和包容性。應該讓我們感到震驚的是,控制著我們生活這麼多方面算法的控制權仍然落在同質而狹隘的少數派手中。」
Gebru 在 Google Ethical AI 團隊的共同負責人、Gebru 爭議事件論文的共同作者之一 Margaret Mitchell 介紹了她和 Gebru 正在進行的研究。她表示:「我們在人工智慧倫理領域真正想推進的關鍵之一是預見的作用,以及如何將其融入到產品開發的各個方面。」
Mitchell 提到,在算法中不存在中立性,不存在非政治性的編程。在訓練數據、系統結構、後處理步驟和模型輸出等各環節,人類的偏見和不同的價值判斷無處不在。她說:「我們正試圖打破這一制度,我們稱之為偏見洗滌(bias laundering)。從倫理的角度開發人工智慧的基本部分之一,就是要確保從一開始就存在各種各樣的觀點和背景。」
Mitchell 所講到的這一點在今年舉辦的 AI Debate 形式中也得到了體現,其目的就是為了引入不同的觀點。正如非洲一句古老的諺語所說,「養育一個孩子需要一個村莊」。
Marcus 說,同樣也需要一個村莊,來培養一個具有道德的、穩健的、值得信賴的人工智慧。他總結說,在今年的 AI Debate 上,很高興能讓大家聚集在一起進行討論,他也看到了小組成員們在會上達成很多共識。