人工智慧不是無所不能的

2021-01-09 澎湃新聞
在數學上,人心比計算機更加優越。

——哥德爾

2017年10月,谷歌下屬公司DeepMind在《自然》雜誌上發表論文,其研發的AlphaGo Zero在完全不用人類棋譜,從隨機走子開始自我對弈學習,只用3天,AlphaGo Zero就以100:0擊敗了2016年3月戰勝李世石的AlphaGo Lee。40天以90%的勝率大勝之前戰勝了世界排名第一的中國棋手柯潔的AlphaGo Master,成為目前最強的圍棋程序。在那些對弈棋局中AlphaGo顛覆了許多由古至今的圍棋定式,而且最後證明它的選擇都是成立的。從而證明,在圍棋這樣的完全信息博弈遊戲領域不用藉助任何人類知識,人工智慧也可以自我訓練,並橫掃 頂尖職業棋手。

在撲克這類不完全信息博弈遊戲呢?隨機性、信息不完全可見性、博弈規模大等條件下,是不是能夠阻擋人工智慧的腳步?答案也確是否定的。由卡耐基梅隆大學(CMU)開發的名為Libratus的人工智慧系統,在一對一、無限制投注的規則下,擊敗了世界上最強的人類德州撲克玩家。藉助於博弈論與強化學習等模型,結合強大計算能力,在非完全信息博弈遊戲領域中人工智慧也完勝了人類。

2018年,在全球蛋白質結構預測競賽(Critical Assessment of protein Structure Prediction,CASP)上,組織者宣布,谷歌DeepMind團隊的最新人工智慧程序AlphaFold,僅僅通過蛋白質的基因序列,就能預測蛋白質的3D結構,成功在43個參賽蛋白中拿到25個單項最佳模型。

[1]

這極大推動該領域的發展,模型找到了基因序列數據中人們沒有認識到的規律和信息。

在一些領域都傳出人工智慧戰勝人類的新聞,人們不禁擔心人工智慧即將在各行各業代替人類,各種媒體的報導也助推了這樣的焦慮,仿佛沒有什麼是其不能解決的。這其實涉及人工智慧和人類的能力邊界問題。我們定義這個能力是特定領域中解決問題的能力。這自然也離不了對於世界的基本假設。看起來都是非常哲學與科學的主題,但又是探討領域中人工智慧應用不可迴避的主題。不用擔心,請耐心閱讀,希望本章的論述能讓您對人工智慧在領域中的應用的邊界和方向等有自己的看法。

弱人工智慧與強人工智慧

1956年,在達特茅斯大學舉辦的夏季會議上「人工智慧(Artificial Intelligence,AI)」一詞正式被提出。在過去半個世紀,幾經冷暖。2012年,圖靈獎獲得者Geoffrey Hinton領導的課題組參加了ImageNet圖像識別比賽,通過卷積神經網絡(CNN)在比賽中一舉奪得冠軍,性能遠超第二名。2016年,谷歌AlphaGo戰勝圍棋世界冠軍李世石,徹底引燃人工智慧熱潮。這裡就不回顧人工智慧發展史了,有興趣的讀者請參閱《人工智慧:一種現代的方法》

[2]

等相關書籍中的介紹。

什麼是人工智慧(AI),在《人工智慧:一種現代的方法》書中對人工智慧的4種用途進行了定義:

• 像人一樣思考

• 像人一樣行動

• 合理地思考

• 合理地行動

這定義是指強人工智慧(Artificial General Intelligence, AGI),也叫通用人工智慧,是能夠獨立進行思考、計劃、解決問題、抽象思維、學習、認知和推理等行為的機器。強人工智慧目的是研究具有感覺和自我意識的智能機器;是能獨立思考問題,並在能力範圍內製定解決方案;有自己的價值觀選擇體系進行決策;能夠在無監督的情況下處理經驗外問題;並同時能夠與人類交互式學習的智能機器。科幻片中智能助理幾乎都是強人工智慧,比如,《她》(2013)中的薩曼莎,《人工智慧》(2001)中的小男孩大衛,以及《機械姬》(2015)裡面的艾娃等。

電影《機械姬》中的艾娃

與之對應的是弱人工智慧(Artificial Narrow Intelligence, ANI),也叫專用人工智慧:不是強人工智慧的智能機器,不擁有獨立思考能力,也不會有自主意識進行決策。弱人工智慧專注於某個特定的任務,例如語音識別、圖像識別、圍棋和自動駕駛等。它們只是被用於解決特定的、具體的任務,屬於工具的範疇。

人工智慧技術近些年的進展和成功,是緣於「弱人工智慧」而不是「強人工智慧」,IBM的Watson和谷歌的AlphaGo等,都屬於弱人工智慧。目前,人工智慧取得重大突破的,是弱人工智慧領域,強人工智慧幾乎沒有進展。何況,是否應該研究強人工智慧,科學界和工業界都存在很大爭議。國內知名人工智慧專家周志華教授就提出:「即便強人工智慧是可能的,也不應該去研究它。」

[3]

不具備常識的人工智慧

♦ 莫拉維克悖論(Moravec's Paradox)

莫拉維克悖論是由漢斯·莫拉維克、馬文·明斯基等人於1980年代提出的:模仿人類的高階智慧能力只需要非常少的計算能力,如,推理等,所以要讓人工智慧下棋是相對容易的。但是要讓人工智慧模擬一歲小孩般的感知和行動能力,模擬人類直覺等,卻是相當困難甚至是不可能的。2019年,機器學習領域國際頂級會議,國際機器學習大會(International Conference on Machine Learning ICML),Alison Gopnik教授主題分享「為什麼四歲兒童能做而人工智慧不能做?」

[4]

也探討了同樣問題。

人工智慧之父馬文·明斯基在其著作《情感機器》

[5]

中討論了人類大腦的思維運行方式,並嘗試設計一個能理解、會思考的人工智慧。其在回答為什麼會有莫拉維克悖論時說道,「所有的現代程序都不具備常識性知識(Commonsense Knowledge)」。這亦是人工智慧產品常常給人感覺不夠智能的根本原因之一。常識性知識和推理包括:

1)正面經驗(Positive Expertise):在什麼情況下應使用特定類型知識。

2)負面經驗(Negative Expertise):在什麼情況下不應採取哪種行動,因為可能會使事情變得更糟。

3)調試技能(Debugging Skills):當常規方法不再適用時,還有其他可供選擇的方法。

4)適應技能(Adaptive Skills):將原有知識應用到新情景中。

人類的能力之一是從少數例子中學習,進行模式識別。即使之前從未遇到過的環境,我們也可以進行判斷和預測。這種對未知環境、未知事件的處理能力,是當前人工智慧無法具備的。明斯基在書中提出了通過框架表示常識試圖模擬這個能力。Alison Gopnik的分享中也引用類似觀點。這屬於機器學習中的符號主義(Symbolists),不同於當前大熱的聯結主義(Connectionists)的深度學習。將兩個領域有效結合是未來機器學習的重要方向之一。

人工智慧之父馬文·明斯基

為什麼深度學習能「大力出奇蹟」

深度學習(Deep Learning),概念源於神經網絡的研究,指通過構建深度神經網絡結構,將原始數據轉變成為更高層次的、更加抽象的特徵表示,從而使複雜的函數映射也能夠被學習。近些年,人工智慧大熱的起因就是由於深度學習在一些領域取得突破性成果,在圖像、語音、自然語言處理等領域取得非常好的效果。目前機器學習、深度學習的應用在各行各業都越來越熱。深度學習雖然在一些應用場景取得了巨大突破,但業界也存在大量批評的聲音,通常包括以下質疑:

• 深度學習模型的優化是經驗性的、不穩定的。

• 效果依賴於大量標註的訓練數據。

• 不透明、可解釋性差。

• 難以結合領域的先驗知識。

• 低效率等問題。

2018年1月,紐約大學認識心理學家Gary Marcus發表一篇文章

[6]

列舉了十大理由質疑深度學習的局限性。圖靈獎得主、貝葉斯網絡發明者Judea Pearl也批評當前深度學習研究,認為從數學層面看,不論從數據中得到多少信息,都只是曲線擬合而已,但很多問題僅靠曲線擬合是無法解決的,未來的發展方向應是基於因果推理的模型。

[7]

之後,2018年圖靈獎新晉獲得者、Facebook首席AI科學家Yann LeCun等知名專家學者在社交媒體上就深度學習展開了多輪的論戰,探索深度學習的適用場景與局限性。Yann LeCun堅持認為深度學習是人工智慧解決方案的重要部分之一。

強化學習領域著名教授理察·薩頓(Richard S.Sutton)則認為,人類不應試圖把自己的知識和思維方式植入到AI之中,比如用人類的思路教AI下棋,將讓AI按照人類總結的思路來識別圖像,等等。真正的突破,必然來自完全相反的方向。摒棄人類在特定領域的知識,充分利用大規模計算才是王道。用人類在特定領域的知識來提升人工智慧,都是在走彎路。OpenAI首席科學家Ilya Sutskever精闢地總結了薩頓的核心觀點:大力出奇蹟(Compute always wins)。對此也有相反觀點,牛津大學計算機系教授希蒙·懷特森(Shimon Whiteson)就認為構建AI需要融入人類知識,問題只在於該何時、如何、融入哪些知識。

[8]

關於深度學習、人工智慧發展方向的討論,本書不再過多引述,感興趣的讀者可以看看雙方的論戰。

筆者認為,在科學界,自然需要各樣的研究方法論。但在工業界,在一些特定領域,「大力出奇蹟」,是不二法門。大規模計算的作用還遠遠沒有發掘完,只要數據數量與質量、計算能力持續提升,加之算法的優化,在工業界一定還有更多的驚喜等著我們。靠自我對弈圍棋的AlphaGo Zero,基於深度學習識別語音、圖像的算法等,一次次擊敗了先前那些濃縮了人類知識的人工智慧方案。2018年,狂破11項自然語言處理領域紀錄的谷歌BERT(Bidirectional Encoder Representation from Transformers)模型

[9]

,其亦是藉助大規模計算,通過預訓練得到更好的文本特徵,屬於暴力模型。

自然語言處理處理(Natural Language Processing,NLP)是人工智慧領域的一個重要方向,主要研究能實現人與計算機之間用自然語言進行有效通信的各種理論和方法。大量訓練數據和雲計算可以說是近幾年深度學習在自然語言處理方面取得了重大突破的重要前提。為什麼大力能出奇蹟?谷歌的BERT模型,使用無監督學習

[10]

對大量語料進行預訓練,設計了兩個預訓練任務:一個是隨機遮蔽掉一個句子中某個詞,利用上下文進行預測;另一個是直接預測下一個句子。預訓練模型的目的是為每個詞彙找到恰當的向量表示。當特定領域中相關語料越多,效果越好。就是說機器學到了語料數據中,我們無法用符號表述的規則或知識。

深度神經網絡的理論依據之一——萬能逼近定理(Universal Approximation Theory):神經網絡能以任意的精度逼近任何從一個有限維空間到另一個有限維空間的連續函數。

2015年,三位圖靈獎獲得者、深度學習和人工智慧領域的著名學者傑弗裡·辛頓(Geoffrey Hinton)、延恩·勒昆(Yann LeCun)和約書亞·本吉奧(Joshua Bengio)在《自然》雜誌上發表了深度學習綜述論文

[11]

,文章中總結了深度學習在一些領域確定突破性成果的原因。對於一些複雜的問題,如圖像、語音、自然語言理解等,研究人員往往很難知道提取哪些特徵合適。解決的方法之一是表徵學習(Representation Learning),通過機器學習方法去提取特徵。「深度學習就是一種表徵學習方法,把原始數據通過一些簡單的但是非線性的模型轉變成為更高層次的、更加抽象的表達。當神經網絡足夠多層,再複雜的函數也可以被學習。」

在王維嘉的《暗知識》

[12]

中提到,數據有一些人類既無法感受又無法表達和描述的暗知識隱藏在海量數據的關係中。他也例舉了AlphaGo Zero「自學」戰勝之前基於人類棋譜最強AlphaGo Master,認為機器發現了人類既無法感受也無法表達的知識。利用機器挖掘我們人類無法認識的知識與信息,是其書中提出的重要觀點,筆者非常認同。知識表徵(Knowledge Representation)是人類永恆的問題,是對事物、事實的一種代替,以使我們可藉助用知識表徵的符號進行計算,對世界、事實進行推理。過去幾千年,人類都在進行宇宙、世界中事物、事實的知識表徵探索,而利用機器挖掘數據中我們所不能理解的知識表徵才剛開始。所以,在數位化時代,「大力出奇蹟」才剛起航。

工業界擊敗BERT模型已然出現,2019年7月,阿里巴巴公司的「TransBERT」模型在多輪對話型閱讀理解評測(QuAC)進一步刷新了記錄。

[13]

可以想見,基於自然語言模型的智能新聞、語音助理等將成為領域中可行的、更高效的方案。

人心計算不可替代的優勢

人們說到心靈的時候,說的並不是一臺(任何一般意義上的)機器。而是一臺察覺到自身的正確性的機器。

——哥德爾

前面章節所提到的常識,亦是一種直覺。愛迪生說過「天才就是99%的汗水加上1%的靈感,但沒有這1%的靈感,那99%的汗水也是徒勞」。靈感既大師、專家們在決策時的直覺。諾貝爾經濟學獎、圖靈獎獲得者郝伯特·西蒙做過一個西洋棋棋法研究,其將一個布局合理的中盤棋局給大師們看,他們往往能在很短的時間就找到最優下一步,這就是基於直覺的搜索。專家和新手區分不僅是前者具有大量和多樣的信息,更重要的是,他的直覺經驗使其能快速發現所面對的棋局形勢中的熟悉模式。長期記憶中儲存大量的棋局模式,識別這些模式,從長期記憶中找到相關信息,這樣的直覺搜索,並不需要大量複雜的腦力計算。

而AlphaGo在模型訓練過程中,也是抽取一盤圍棋中的隨機中盤布局,使用蒙特卡羅樹搜索(Monte Carlo Tree Search,MCTS)結合估值網絡(Value Network)來搜索最優下一步。由此看來,對於一個領域問題,新手往往是低效的、痛苦的直覺搜索,專家是高效的直覺搜索,而AlphaGo是啟發式結合暴力搜索。即,人類和人工智慧是完全不同的搜索途徑。計算機不必學習人的做法,就如同飛機不必學習鳥的飛行一樣。但,是否可能藉助人工智慧提高新手的搜索效率呢?這應該是個非常值得探索的方向,在之後的章節還將探討該主題。

現代的計算機的理論依據是偉大的數學家、邏輯學家艾倫·麥席森·圖靈發現的圖靈機理論。該理論中的停機問題(Halting Problem)是哥德爾不完備定理(Godel Incompleteness Theorems)的一種證明。圖靈機以一種精確的定義完全把握了機械(或計算)過程的直觀概念,因而徹底解釋了哥德爾不完全性定理的普遍性。

哥德爾不完全性定理:任何一個形式系統(圖靈機是一種形式系統),只要包括了簡單的初等數論描述,它必定包含某些系統內所允許的方法既不能證明真也不能證偽的命題。

根據哥德爾定理,基於數論的所有一致的公理化形式系統都包含有不可判定的命題,基於圖靈機原理的計算機自然也包括在內。而人類基於直覺、情感的決策並不並這個問題。一個十分著名的例子,當亞歷山大面對難以解開的「格爾迪奧斯繩結」,用手中的劍直接就將繩結砍斷。跳出來看問題,這是人類的能力之一。還有,數學中著名的黎曼猜想,亦是先猜測可能的真理,就進行應用了,到目前為止,並沒有證明該猜想。

對於人心計算與計算機能力對比,偉大的數學家、邏輯學家和哲學家庫爾特·哥德爾認為數學直覺就可以看到並證明自身的一致性,這一點不同於計算機。人是擅長通過直覺解決新問題的,這才是相對於人工智慧,人類真正的優勢。

在系列電影《黑客帝國》的動畫版電影,九段獨立動畫之一的《第二次文藝復興》中描述了人工智慧和人類的戰爭,最後人類啟用了核武器並遮擋了整個地球的太陽光,但機器還是取得了最後的勝利。可機器無法獲得太陽能,只好圈養人類獲得生物能,將所有存活下來的人類養在母體Matrix中。該理由非常牽強,低等生物的能量轉換率一定比人類這樣的高等動物更高。更合理的解釋是,由於人工智慧無法代替人類的直覺計算,而直覺計算又是探索宇宙,探索數學、物理等充滿不確定性領域必不可少的能力,所以只好將人類圈養在母體中。

《黑客帝國》動畫版電影劇照

另外,可不要小看我們自己大腦中的計算能力,麻省理工學院物理系邁克斯·泰格馬克教授在他的著作《生命3.0》

[14]

中參考了相關研究,認為要模擬人類大腦,所需要的浮點運算次數差不多相當於2017年全世界運行最快的超級計算機,我國的「神威-太湖之光超級計算機」,價值3億美元。這還只是從浮點運算次數來看,要複製人腦的計算能力,光靠已有的神經網絡可不行。所以在「神威-太湖之光超級計算機」的成本還沒有降到和人類的成本一樣前,從計算成本角度來看,決策中的人機合作都還應該以人為主。

所以,人類的直覺有其不可或缺的重要性,直覺才是人類最重要的決策方式之一,是無法代替的。在未有強人工智慧,機器的計算成本未佔優之前,領域中的解決方案總不免同時需要這兩種計算。針對不同領域問題,根據具體情況,選取人和計算機各自優勢共同構建解決方案將是可行的途徑。

機器在什麼場景下可以代替人?

在BBC網站上有一個頁面

[15]

,可以查詢涵蓋數十個領域的上千份工作崗位可能被人工智慧替代的預測。這個預測是基於英國牛津大學兩位學者卡爾·弗雷和麥可·奧斯本的研究《未來職業:工作被計算機取代的可能性?》

[16]

。2013年,兩位學者預測,在未來10~20年間,47%的工作很有可能被自動化取代。越是專業化程度高的領域,人工智慧更加有優勢代替人類。而那些與人打交道的,教師、護士等,以及需要創造性思維的架構師、藝術家等是不容易被替代的。這和弱人工智慧擅長的領域非常一致,在社會化大分工的環境下,弱人工智慧在那些專業的領域能夠代替人類部分工作。

《生命3.0》中將提出莫拉維克悖論的漢斯·莫拉維克一段關於人工智慧能力前景的描述,以地形圖的形式形象地畫出來。其中「海拔高度代表這項任務對於計算機的難度,不斷上漲的海平面代表計算機現在能做的事情。」這裡計算機既包括強人工智慧也包括弱人工智慧。從圖上看來,似乎投資也是一個即將被攻克的領域,筆者並不認同,在之後的章節還將論述。

在什麼場景下機器能夠代替人類決策呢?這裡所指機器包括計算機系統、數據以及弱人工智慧,並不包括強人工智慧。如果你問一位機器學習從業者這個問題,通常,他會告訴你,如果這個有足夠的訓練數據,以及能構建有效收集反饋的閉環時,就可以嘗試用機器學習代替人類決策。一般我們認為司機的智能助理,最終目標定位是自動駕駛。因為通過傳感器可以收集大量訓練數據,並且有實時反饋的運行環境。即使是倫敦黑色計程車司機,他們都必須通過嚴格的倫敦知識考試,包括知曉城市數千個景點和街道位置,以及在任何時段規劃到目的地的最優路線等。

[17]

從技術角度來看,他們也是可以被人工智慧替代的。駕駛這個任務,並不需要司機的個人意識,一個人類司機會享受音樂、欣賞窗外風景等等,但對於駕駛這個任務來說這些能力並沒有增益,而是潛在的風險。這些場景下,人工智慧必然將會替代人類決策。

在丹尼爾·卡尼曼教授《思考,快與慢》

[18]

中描述了兩種人類決策思考的系統:

• 快思考:「系統1運行時無意識且快速地,不怎麼費腦力,沒有感覺,完全處於自主控制狀態。」

• 慢思考:「系統2將注意力轉移到需要費腦力的大腦活動上來,例如複雜的運算。系統2的運行通常與行為、選擇和專注等主觀體驗相關聯。」

快思考適用於快反饋的場景,網際網路激增了這樣的反饋場景。人是偏好及時行樂的,這非常符合人性,網際網路產品更加推波助瀾了這個傾向。新聞媒體行業應該是算法輔助人們快決策非常成熟的領域,大量的用戶的特徵、不斷迭代算法模型、可量化的反饋等等,都已融入行業的方方面面。新聞內容產生者根據大量的反饋數據可以知道哪些用戶喜歡這篇文章,閱讀了多長時間,在什麼地方停頓等,從而不斷調整新聞的編輯,向著更好評估指標(點擊率等)的方向前進。

快決策的場景基本都是弱人工智慧、算法擅長的場景,因為有足夠的數據與反饋,可以幫助算法提升性能。但決策並不只是快思考,在BBC的紀錄片《人生七年》中,用幾十年跟蹤英國不同階層的七歲的小孩子,每隔七年,都會重新採訪當年的這些孩子,了解他們的現狀,傾聽他們關於生活、理想、人生的觀點。當你觀看這部紀錄片時,常常能感受到有些人在面對人生重大決策時,並沒有經過太多的思考就草率地決定了。人工智慧的作用不只是要幫助人類去快決策,也應該輔助去做那些慢思考的決策。如何輔助,直接代替人們做出更明智的決策嗎?機器學習最大的挑戰之一是需要大量特定問題的樣本作為訓練數據,可惜關於人生,誰都沒有足夠的樣本和反饋。在金融投資領域也同樣如此,面臨的問題都是不確定環境下具有時間跨度的決策問題,其關乎於未來收益,自然有不確定性等屬性,也是屬於慢思考決策。弱人工智慧擅長快思考,眼觀並不長遠。在不確定環境下,特別是跨期決策,是結合行為主體偏好的選擇,人心計算必不可少,並應起主要作用。更一般地來看,這其實是可計算性理論(Computability Theory)的問題,該理論研究哪些算法問題是能夠被解決的。其中涉及兩個重要概念,判定問題,是尋求一種能行的方法,一種算法,能夠對某類問題中的任何一個問題,在有窮步驟內判定其是否具有某一特定性質。另一個概念是計算複雜性理論,使用數學方法對計算中所需的各種資源的耗費作定量的分析,並研究各類問題之間在計算複雜程度上的相互關係和基本性質。當前,人工智慧如此之火,有時也會驚訝於仿佛所有的算法都歸於這面大旗之下。但,不要忘記機器學習只是計算機理論算法中的一部分。

既然有不可判定的問題、計算複雜的各類問題存在,再次證明弱人工智慧不應該是代替人類決策的方案。在未有科幻片中那樣的強人工智慧之前,弱人工智慧與物聯網、大數據、雲計算等技術結合,在某些領域必然具備超越人類的能力。

所以,在不同場景下,弱人工智慧的能力邊界決定了人工智慧方案的能力邊界與定位。這是本書將持續討論的問題,接下來所有提到的人工智慧沒有單獨說明都是指弱人工智慧。

注釋

1.乾明.哈佛醫學院研究員解讀DeepMind大突破AlphaFold:有進步,但未解決根本問題[OL].凹非寺公眾號.2018-12-03.

2.Stuart J.Russell,Peter Norvig.人工智慧:一種現代的方法(第三版)[M].清華大學出版社,2013.

3.周志華.關於強人工智慧[J].中國計算機學會通訊.2018,1.

4.https://icml.cc/Conferences/2019/ScheduleMultitrack?event=4334

5.馬文·明斯基.情感機器[M].浙江人民出版社.2015,12.

6.Gary Marcus.Deep Learning: A Critical Appraisal[OL].arXiv Preprint.2018,01.

7.Judea Pearl,Dana Mack.The Book of Why: The New Science of Cause and Effect[M].Allen Lane.2018,5.

8.乾明,安妮.只有大規模算力才能救AI?強化學習之父vs牛津教授掀起隔空論戰[OL].量子位公眾號.2019-03-17.

9.Devlin,J.,Chang,M.-W.,Lee,K.,and Toutanova,K.Bert: Pretraining of deep bidirectional transformers for language understanding.[OL].arXiv preprint,2018.

10.無監督學習屬於機器學習中的一個類別,是對無標記訓練樣本的學習來發現數據內在性質與規律。

11.Yann LeCun,Yoshua Bengio,Geoffrey Hinton.Deep learning Review[J].Nature.2015,5.

12.王維嘉.暗知識:機器認知如何顛覆商業和社會[M].中信出版社.2019,3.

13.阿里巴巴AI模型「TransBERT」擊敗全球對手,刷新了QuAC世界紀錄.科技日報.2019,7.

14.邁克斯·泰格馬克.生命3.0[M].浙江教育出版社.2018,6.

15.Will a robot take your job?[OL].https://www.b bc.com/news/technology 34066941.BBC.2015.

16.Michael Osborne,Carl Frey.The Future of Employment: How Susceptible Are Jobs to Computerisation?[J].Technological Forecasting and Social Change.2013.

17.在倫敦,想成為黑色計程車司機有多難?[OL].中國日報網.2018,09.

18.丹尼爾·卡尼曼.思考,快與慢[M].中信出版社.2012,7.

本文為新書《人工智慧為金融投資帶來了什麼》(袁峻峰/著,經濟科學出版社2020年3月版)第一章的部分章節,澎湃新聞經授權摘錄。

(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)

相關焦點

  • AI教父Geoff Hinton:深度學習將讓AI無所不能
    他在麻省理工學院技術評論年度EM TEC(電磁技術)會議期間談到,深度學習將足以複製人類的所有智力,人工智慧將無所不能。傑弗裡·辛頓自20世紀80年代以來一直致力於深度學習和神經網絡,但由於缺乏數據和計算能力,其有效性受到限制。21世紀,他對這項技術的堅定信念最終帶來了巨大的紅利和行業的發展。
  • 人工智慧琴棋書畫樣樣精通,是藝術還是鸚鵡學舌?
    早在2016年,谷歌人機大戰掀起了全球人工智慧熱潮,甚至還為人工智慧系統辦起了畫展,因早期谷歌主要以動物來訓練人工智慧系統,儘管AI系統對圖像處理都會出現各種動物,但谷歌AI的畫作居然還拍出8000美元價格。
  • 一間無所不能的實驗室
    如果不是和「漸凍人」的一次偶然接觸,這位美國加州大學的政治學碩士,或許永遠和科技沾不上邊。    2009年,埃貝林的影視製作公司對一位患上「漸凍症」的街頭塗鴉藝術家——託尼·奎恩進行慈善捐贈。那時,曾活躍於紐約大街小巷的奎恩,已經安靜無比地躺在病床上,全身上下只剩眼球可以活動。
  • 這一次,我們採訪的不是人類,是人工智慧
    小冰聲音很甜,但性格過於熱情,一言不合就天氣預報;她愛唱歌,不過唱不了兩句又喜歡罷工;和她玩兒成語接龍,她也總耍賴……聽起來,好像不是很會聊天。不過我是做過功課的,當初選小冰來做這期節目,就是因為看到網上很多人曬出和她的聊天截圖,誇她是最會聊天的人工智慧。據說,有個美國人曾經和小冰整整對話了 9 小時 53 分。
  • 人工智慧無所不能?AI+醫療並非如此神奇,但卻是下一場醫學革命
    很多人心目中的人工智慧(AI)是混沌的,什麼事物聯繫上「人工智慧」、「AI」就好像鍍上一層金箔,熠熠生輝。也有的人將人工智慧想像成一個實實在在的程序,認為像科幻電影「流浪星球」中的MOSS,這種能與主角對話,能產生自己的想法的東西才叫做人工智慧。
  • 解讀《未來簡史》:我們擔心人工智慧,其實擔心的不是機器而是人
    一、我們擔心人工智慧,其實擔心的不是機器1942年,阿西莫夫在短篇小說「Runaround」(《環舞》)中首次提出了三定律:第一,機器人不得傷害人類,或因不作為使人類受到傷害;第二,除非違背第一定律,機器人必須服從人類的命令;第三,除非違背第一及第二定律,機器人必須保護自己。
  • AI無所不能搶人飯碗?專家:未來理想狀態是人機協同
    每經記者:王帆 每經編輯:陳俊傑人工智慧(AI)已經風靡全球,被看作是科技帶給人類的禮物。AI在解放人類重複、低效的勞動力時,也引發了新的思考:AI真的無所不能?能否完全替代人的工作?被取代的人類還能幹什麼?
  • 他們不是無所不能,而是選擇竭盡所能……
    > 所謂擔當 不過是在危難中選擇堅強 歲月靜好 皆因有人生死間篤定大義 他們不是無所不能
  • 女性機器人真的那麼無所不能?連體溫都能模仿,你會購買嗎?
    要說如今世界科技什麼行業最受關注,那麼無疑是人工智慧以及AI行業,而機器人又是該科技中的最高智慧結晶,相當於皇冠上最閃亮的寶石,而近期,女性機器人又火了,女性機器人真的那麼無所不能?連體溫都能模仿,你會購買嗎?
  • 谷歌阿爾法狗根本不是人工智慧
    什麼是人工智慧?什麼不是人工智慧?某種意義上,這是一個如何定義的問題。近日,谷歌旗下的DeepMind 公司開發的阿爾法狗打敗了世界圍棋冠軍李世乭(Lee Sedol),這已經成了一個不爭的事實。而且,近年來,一些類似的深度研究技術,也解決了很多相當複雜的計算問題。但是,這就意味著我們即將進入全人工智慧化時代,或者說機器時代了麼?
  • 未來的人工智慧不是圖靈機
    所以圖靈機實現的是通用計算,而不是大腦那樣的普適性。真正的人工智慧需要具備自主進化能力,才能做到普適性。自主進化需要有突發或者偶發,可以形成新信息概念。而突發或者偶發需要耗能,所以信息存儲部分需要實現均勻耗能,也就是分布式。我們的大腦就是如此。
  • 2045年人工智慧
    計算機科學家雷蒙德·庫茲韋爾相信,這個信息奇點即將到來,那時,人工智慧將超越人腦。  2011年2月18日,超級電腦「沃森」打敗了人類,站在了與人類智力競賽的最高領獎臺上。沃森的勝利讓許多人想起了它的前輩「深藍」:1997年「深藍」力克西洋棋世界冠軍卡斯帕羅夫。這曾讓人類大呼:狼來了。  從「深藍」到「沃森」,人工智慧已經向前跨越了一大步。電腦會代替人腦嗎?
  • 宇宙無敵上帝視角無所不能之星球生成模擬器。
    他製作的第一個網站,我們就叫他宇宙無敵上帝視角無所不能之星球生成模擬器吧。這玩意會給你一顆碩大的星球,然後讓你在星球上建造森林、冰川、城市和草地。這個聽起來有些無聊的對遊戲理解只在第一層的星球模擬器,實際上玩起來的效果已經到了第五層,這個星球的建模以及畫面做的非常細膩。
  • DNA鑑定無所不能?你怕是被刑偵劇騙了……
    很多時候發現屍骨卻無法判定死者身份時,很多人都會說,做DNA鑑定不是就可以了。 但是,DNA真的這麼無所不能嗎? 01 DNA鑑定真的無所不能?
  • 德國留學|世界頂級教授牽頭,TUM人工智慧領域進入飛速發展階段
    此前我們也多次為大家分析過,人工智慧領域在未來有非常巨大的潛力。那麼我們首先先來了解一下人工智慧的定義。#什麼是人工智慧?首先我們需要明確,人工智慧並不是我們在電影裡看到的無所不能機器人,其本質上仍然是一種軟體工具,用來解決特定的問題。
  • 熬到2045年,人類可能靠人工智慧戰勝死亡了
    而他認為未來的科技不會再經歷進化,而是直接爆炸發展到無所不能。 到時候計算機智能將遠超全部人類,包括生老病死在內的科學難題都會被解決,而我們不用吃唐僧肉也能長生不老,並且會如神一樣無所不能。。。 老庫把科技大爆炸前的那個事件點,稱為技術奇點。是不是聽起來有些玄乎?今天,差評君就和大家簡單聊聊庫茲韋爾的技術奇點理論。
  • 人工智慧統治世界?最要命的可能不是這個
    以主體性為準的分類試圖突出地表達人工智慧的可能質變,即奇點。目前看來,人工智慧發生質變的奇點還很遙遠,預言家們往往誇大其詞,但問題是,人工智慧的奇點是可能發生的。智能的要害不在於運算能力,而在於反思能力。人的主體性本質在於反思能力,沒有反思能力就不是思維主體。
  • 人工智慧快速發展,那麼2050年生活應是什麼樣?兩個字享受
    如果問時下最流行的科技到底是什麼,相信大家一定會說是人工智慧,沒錯,這些始於人類的機器人或者是電腦系統,已經具備了高效的處理能力,強悍的運算能力,在我們現在的生活當中,簡直就是一個無所不能的小幫手。那麼到2050年,我們的生活究竟是個什麼樣子呢?用兩個字來概括,享受!
  • 人機智能既不是人類智能,也不是人工智慧
    而機器的「學習」(如果有的話)「目的」不是為了發現聯繫,而就是為了尋求一個結果。智能的根本不是算,是法,是理解之法、之道!理解是關鍵。NLP不先解決理解問題,只追求識別率,是不會有突破的。其實人對聲音的識別率是很低的,經常要問別人說了啥。能問別人說了什麼是最關鍵的能力,因為知道沒有理解才能問出問題。很多系統的理解最終靠人,如果沒有人參與,不管處理了多少文字,都沒有任何理解出現。
  • 科學大咖馬兆遠:從人工智慧的局限,看人與科技的未來——《人工智慧之不能》作者分享會
    ①從人工智慧的局限