李航:人工智慧的未來 ——記憶、知識、語言

2020-12-04 雷鋒網

雷鋒網 AI 科技評論按:本文作者李航,首發於《中國計算機學會通信》2018 年第 3 期,AI 科技評論獲其授權轉載。該文未經許可,禁止進行轉載、摘編、複製及建立鏡像等任何使用。如需轉載,請通過向 CCFvoice 公眾號後臺申請並獲得授權。

從一個悲劇故事談起

黛博拉(Deborah)輕輕地推開房門,探頭往裡看。克萊夫(Clive)發現進來的是妻子,臉上露出無限的喜悅。他直奔門前,高喊「太好了」,並張開雙臂緊緊地抱住黛博拉。克萊夫一邊和黛博拉親吻,一邊說「你來了,真讓我吃驚」。接著兩人又開始擁抱,好像分別已久。坐下來後,黛博拉用溫柔的眼光看著克萊夫說「其實我今天早上也來過」,克萊夫搖搖頭反駁道「不可能,這是我今天第一次見到你。」這樣的場景每天都在黛博拉和克萊夫之間重複上演。

克萊夫·韋爾林(Clive Wearing)是英國的一位音樂家 。他四十多歲的時候突然患上了病毒性腦炎,這是一種死亡率很高的疾病。幸運的是他活了下來,不幸的是疾病給他留下了失憶症(amnesia)。過去發生的很多事情已不能記起,但他還認識妻子,卻不認識女兒。更嚴重的是他對當前發生的事情不能記憶到腦子裡,幾分鐘後就會完全忘記。他的行動沒有任何問題,語言和思維似乎也正常,可以飲食、行走、說話、寫字,甚至彈琴、唱歌,看上去和正常人一樣。但他就是長期記憶(long term memory)出了問題。他感受到的世界和大家是一樣的,但轉過頭去,剛發生的一切就會從腦海中消失,他所擁有的只是「瞬間到瞬間的意識」,沒有過去可以聯繫,也沒有未來可以展望。

克萊夫·韋爾林用自己不幸的經歷為我們揭示了長期記憶對我們的智能,乃至我們的人生的重要意義。

記憶與智能

人腦的記憶模型如圖 1 所示,由中央處理器、寄存器、短期記憶和長期記憶組成。視覺、聽覺等傳感器從外界得到輸入,存放到寄存器中,在寄存器停留 1~5 秒。如果人的注意力關注這些內容,就會將它們轉移到短期記憶,在短期記憶停留 30 秒左右。如果人有意將這些內容記住,就會將它們轉移到長期記憶,半永久地留存在長期記憶裡。人們需要這些內容的時候,就從長期記憶中進行檢索,並將它們轉移到短期記憶,進行處理[1]。

圖 1 人腦記憶模型

長期記憶的內容既有信息,也有知識。簡單地說,信息表示的是世界的事實,知識表示的是人們對世界的理解,兩者之間並不一定有明確的界線。人在長期記憶裡存儲信息和知識時,新的內容和已有的內容聯繫到一起,規模不斷增大,這就是長期記憶的特點。

大腦中,負責向長期記憶讀寫的是邊緣系統中的海馬體(hippocampus)。克萊夫·韋爾林患失憶症,是因為海馬體受到了損傷。長期記憶實際上存在於大腦皮層(cerebral cortex)。在大腦皮層,記憶意味著改變腦細胞之間的連結,構建新的鏈路,形成新的網絡模式。

我們可以認為,現在的人工智慧系統是沒有長期記憶的。無論是阿爾法狗,還是自動駕駛汽車,都是重複使用已經學習好的模型或者已經被人工定義好的模型,不具備不斷獲取信息和知識,並把新的信息與知識加入到系統中的機制。假設人工智慧系統也有意識的話,那麼其所感受到的世界和克萊夫·韋爾林是一樣的,那就是,只有瞬間到瞬間的意識。

那麼,意識是什麼?這是當今科學的最大疑團之一,眾說紛紜,莫衷一是。日裔美國物理學家加萊道雄 (Michio Kaku)給出了他的定義。如果一個系統與外部環境(包括生物、非生物、空間、時間)互動過程中,其內部狀態隨著環境的變化而變化,那麼這個系統就擁有「意識」[2]。按照這個定義,溫度計、花兒是有意識的系統,人工智慧系統也是有意識的。擁有意識的當前的人工系智能系統缺少的是長期記憶。

具有長期記憶將使人工智慧系統演進到一個更高的階段。這應該是人工智慧今後發展的方向。

智能問答系統

未來人工智慧技術不斷發展,預計將會出現智能性的問答系統,系統包括語言處理模塊、短期記憶、長期記憶、中央處理模塊(如圖 2 所示)。有大量的結構化的、非結構化的信息和知識作為輸入,也有大量的問答語對作為訓練數據。系統能夠自動獲取信息與知識,掌握語言理解與生成能力,將信息和知識處理存儲到長期記憶,理解用戶用自然語言提的問題,利用記憶的信息與知識給出正確的答案。

圖 2 智能問答系統

在某種意義上,現在已經存在這種系統的原型,例如,網際網路搜尋引擎就可以看作是其簡化版。但是要真正構建人類的智能信息助手,還有許多難關要攻克,有許多課題要解決。

知識問答的本質問題是:(1)語義分析,即將輸入的自然語言的表示映射到內部的語義表示;(2)知識表示,即將輸入的信息知識轉換為內部的語義表示。最大的挑戰來自語言的多義性和多樣性,以及知識的模糊性。

語言具有多義性(ambiguity),也就是說一個表達可以表示不同的意思。下面是語言學家查爾斯·菲爾默(Charles Fillmore)給出的例子。英語單詞 climb,其基本語義是四肢用力沿著一條軌跡向上移動,表示「向上爬」的意思。所以如果用 climb 造句,大家一般會給出這樣的句子「The boy climbed the tree」(男孩爬上了樹)。但是 climb 一詞的語義會向不同方向擴展,可以說「Prices are climbing day by day」(物價每日飆升),這裡 climb 就沒有了四肢用力移動的意思。也可以說「He climbed out of a sleeping bag」(他從睡袋中爬出),這裡 climb 就沒有了向上移動的意思。語言的詞彙都具有如下性質:有一個核心的語義,對應一些典型說法,可以由一些特徵表示。但部分特徵可以缺失,形成新的語義,產生新的說法。語言中,除了詞彙的多義性,還有句法的多義性。

同時語言也具有多樣性(variability),也就是說多個表達可以表示同一個意思。比如,「地球和太陽的距離」,「地球離太陽有多遠?」,「太陽和地球相隔有多少公裡?」等,都是同義表達。

人們的知識,特別是常識,具有模糊性(fuzziness)。下面是人工智慧研究的先驅者特裡·維諾格拉特(Terry Winograd)給出的例子。英文中,bachelor 是指未婚成年男性,即單身的意思。看似是一個明確的概念,但是當我們判斷現實中的具體情況時,就會發現我們對這個概念的認識是模糊的,比如,未婚父親是否是 bachelor?假結婚的男子是否是 bachelor?過著花花公子生活的高中生是否是 bachelor?大家並沒有一致的意見。

神經符號處理

近年,深度學習給自然語言處理帶來了巨大變化,使機器翻譯、對話等任務的性能有了大幅度的提升,成為領域的核心技術。但是另一方面,深度學習用於自然語言處理的局限也顯現出來。面向未來,深度學習(神經處理)與傳統符號處理的結合應該成為一個重要發展方向,神經符號處理(neural symbolic processing)的新範式被越來越多的人所接受,其研究也取得初步進展。

圖 3 基於神經符號處理的智能問答系統

深度學習用實數向量來表示語言,包括單詞、句子、文章,向量表示又稱為神經表示(neural representation)。神經表示的優點在於其穩健性,可以更好地應對語言的多義性和多樣性,以及語言數據中的噪音。另一方面,傳統的符號表示(symbolic representation)的優點在於其可讀性和可操作性。語言是基於符號的,計算機擅長的是符號處理,用符號表示語言處理的結果是自然的選擇。神經符號處理旨在同時使用神經表示與符號表示來描述語言的語義,發揮兩者的優勢,更好地進行自然語言處理。

基於神經符號處理的智能問答系統也是由語言處理模塊、短期記憶、長期記憶、中央處理模塊組成,如圖 3 所示。語言處理模塊又由編碼器和解碼器組成。編碼器將自然語言問題轉換為內部的語義表示,存放在短期記憶中,包括符號表示和神經表示。中央處理模塊通過問題的語義表示,從長期記憶中找出相關的信息和知識。長期記憶中的信息和知識也是基於符號表示和神經表示的。找到相關的答案後,解碼器把答案的語義表示轉換為自然語言答案。

最新進展

實現問答系統有三種方法,分別是基於分析的、檢索的、生成的方法。通常是單輪對話,也可以是多輪對話。這裡考慮單輪的基於分析的問答系統。

傳統的技術是語義分析(semantic parsing) [3]。基於人工定義的語法規則,對問句進行句法分析以及語義分析,得到內部語義表示——邏輯表達式。語義分析需要人工定義句法,開發成本較高,可擴展性不好。

近年,基於神經符號處理的問答系統的研究有了很大突破。可以從數據出發,完全端到端地構建問答系統。不需要人工幹預,只需要提供足夠量的訓練數據。問答的準確率也有了一定的提升。傳統的語義分析技術被顛覆。下面介紹幾個有代表性的工作。

臉書(Facebook)的韋斯頓(Weston)等人提出了記憶網絡(memory networks)框架[4],可以用於如下場景的問答:

John is in the playground.Bob is in the office.John picked up the football.Bob went to the kitchen.Q: where is the football?A: playground.

記憶網絡由神經網絡和長期記憶組成。長期記憶是一個矩陣,矩陣的每一個行向量是一個句子的語義表示。閱讀時,記憶網絡可以把給定的句子轉換成內部表示,存儲到長期記憶中。問答時,把問句也轉換成內部表示,與長期記憶中每行的句子語義表示進行匹配,找到答案,並做回答。

谷歌 DeepMind 的格拉夫(Graves)等發明了可微分神經計算機(differentiable neural computer)模型[5]。該模型由神經網絡和外部記憶組成。外部記憶是一個矩陣,可以表示複雜的數據結構。神經網絡負責對外部記憶進行讀寫,它有三種類型,擁有不同的注意力機制,表示三種不同的讀寫控制,對應哺乳動物中海馬體的三種功能。神經網絡在數據中進行端到端的學習,學習的目標函數是可微分的函數。可微分神經計算機模型被成功應用到了包括智能問答的多個任務中。

谷歌的尼拉康藤(Neelakantan)等開發了神經編程器(neural programmer)模型[6],可以從關係資料庫中尋找答案,自動回答自然語言問題。模型整體是一個循環神經網絡。每一步都是基於問句的表示(神經表示)以及前一步的狀態表示(神經表示),還包括計算操作的概率分布和列的概率分布,以及選擇對資料庫表的一個列來執行一個操作(符號表示)。順序執行這些操作,並找到答案。操作表示對資料庫列的邏輯或算數計算,如求和、大小比較。學習時,整體目標函數是可微分的,用梯度下降法訓練循環神經網絡的參數。

谷歌的 Liang 等開發了神經符號機(neural symbolic machines)模型[7]。神經符號機可以從知識圖譜三元組中找到答案,回答像「美國最大的城市是哪個?」這樣的問題。模型是序列對序列(sequence-to-sequence)模型,將問題的單詞序列轉換成命令的序列。命令的序列是 LISP 語言的程序,執行程序就可以找到答案。神經符號機的最大特點是序列對序列模型表示和使用程序執行的變量,用附加的鍵-變量記憶(key-variable memory)記錄變量的值,其中鍵是神經表示,變量是符號表示。模型的訓練是基於強化學習(策略梯度法)的端到端的學習。

圖 4 包含查詢器的智能問答系統

華為公司的呂正東等開發了神經查詢器(neural enquirer)、符號查詢器(symbolic enquirer)和連接查詢器(coupled enquirer)三個模型[8,9],用於自然語言的關係資料庫查詢。例如,可以從奧林匹克運動會的資料庫中尋找答案,回答「觀眾人數最多的奧運會的舉辦城市的面積有多大?」這樣的問題。問答系統包括語言處理模塊、短期記憶、長期記憶和查詢器,語言處理模塊又包括編碼器和解碼器。圖 4 即是這種架構的具體實現。查詢器基於短期記憶的問題表示(神經表示)從長期記憶的資料庫中(符號表示與神經表示)尋找答案。符號查詢器是一個循環神經網絡,將問句的表示(神經表示)轉換為查詢操作(符號表示)的序列,執行操作序列就可以找到答案。利用強化學習,具體的策略梯度法,可以端到端地學習此循環神經網絡。神經查詢器是一組深度神經網絡,將問句的表示(神經表示)多次映射到資料庫的一個元素(符號表示),也就是答案,其中一個神經網絡表示一次映射的模式。利用深度學習,具體的梯度下降法,可以端到端地學習這些深度神經網絡。符號查詢器執行效率高,學習效率不高;神經查詢器學習效率高,執行效率不高。連接查詢器結合了兩者的優點。學習時首先訓練神經查詢器,然後以其結果訓練符號查詢器,問答時只使用符號查詢器。

未來展望

計算機最擅長的是計算和存儲,其強大的計算能力已經在現實中展現出巨大的威力,但是其強大的存儲能力並沒有得到充分的發揮,通常存儲的是數據,而不是信息和知識。計算機還不能自動地對數據進行篩選和提煉,抽取信息和知識,並把它們關聯起來,存儲在長期記憶裡,為人類服務。

可以預見,未來會有這樣的智能信息和知識管理系統出現,它能夠自動獲取信息和知識,如對之進行有效的管理,能準確地回答各種問題,成為每一個人的智能助手。人工智慧技術,特別是神經符號處理技術,有望幫助我們實現這樣的夢想。期盼這一天的到來!

致謝

感謝呂正東、蔣欣、尚利峰、牟力立、殷鵬程等,本文中的很多想法是在與他們合作的工作中產生的。

作者簡介

李航

CCF高級會員,CCCF特邀專欄作家今日頭條人工智慧實驗室主任研究方向:自然語言處理、信息檢索、機器學習等

腳註

網際網路上有文章和視頻介紹克萊夫·韋爾林的生平。

LISP是 List Processing 的縮寫,是一種早期開發的、具有重大意義的表處理語言。它適用於符號處理、自動推理、硬體描述和超大規模集成電路設計等。

參考文獻

[1] Frank L. Learning and Memory: How It Works and When It Fails. Stanford Lecture, 2010.

[2] Michio K. Consciousness Can be Quantified. Big Think, Youtube, 2014.

[3] Percy L. Learning Executable Semantic Parsers for Natural Language Understanding [J]. Communications of the ACM, 2016.

[4] Weston J, Chopra S, Bordes A. Memory Networks[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2015.

[5] Graves A, Wayne G, Reynolds M, et al. Hybrid computing using a neural network with dynamic external memory [J]. Nature, 2016, 538(7626):471.

[6] Neelakantan A, Le Q V, Sutskever I. Programmer: Inducing Latent Programs with Gradient Descent[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2016.

[7] Liang C, Berant J, Le Q, et al. Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision[C]// Proceedings of the 55th Annual Meeting of Association for Computational Linguistics (ACL』17), 2017.

[8] Yin P, Lu Z, Li H, Kao B. Neural Enquirer: Learning to Query Tables with Natural Language[C]// Proceedings of the 25th International Joint Conference on Artificial Intelligence (IJCAI』16), 2016:2308-2314.

[9] Mou L, Lu Z, Li H, Jin Z, Coupling Distributed and Symbolic Execution for Natural Language Queries[C]// Proceedings of the 34th International Conference on Machine Learning (ICML』17), 2017:2518-2526.

相關焦點

  • 今日頭條人工智慧實驗室主任李航:如何構建擁有長期記憶的智能問答...
    關於大會第一天的內容,雷鋒網 AI 科技評論之前有詳細報導,具體信息請參見橫跨心理學、計算機科學、神經科學,看中國中文信息學會 2017 學術年會如何引起多個領域大碰撞在此次會議上,作為最後一位特邀報告嘉賓,李航研究員帶來了主題為《人工智慧的未來—記憶、知識與語言》的分享,他此次的分享主要圍繞智能問答系統展開,為大家分析了 NLP 所面臨的三大挑戰、目前值得借鑑的應對方法以及對智能問答系統的展望
  • 華為諾亞方舟實驗室主任李航:迎接自然語言處理新時代
    每個人把自己經歷的事件進行編碼,存儲記憶在腦細胞中,在與外界的交互中這些腦細胞被激活,相關的記憶被喚醒。所以,不同人對同樣的語言會有不同的理解,因為他們的經歷不同。但也有許多共性,因為大家在交流過程中,相互激活對方腦中的表示相同內容的細胞。
  • 怎樣讓人工智慧產生記憶
    記憶可以讓我們回憶過往之事,並基於此對未來做出決策。能否讓AI智能體也做到這點呢?近日,谷歌旗下人工智慧企業「深層思維」(DeepMind)提出一種方法,能夠讓智能體使用特定的記憶來信任過去的行為,並對未來做出正確的決策。相關成果發表於最新一期的《自然·通訊》上。 那麼,目前我們讓AI產生的記憶和人類的記憶是一回事嗎?人工智慧可以用什麼方法產生記憶?
  • 李航《統計學習方法》第二版上線,6 年耕耘增加無監督學習
    李航老師表示他會繼續寫深度學習、強化學習相關的內容,包括前饋神經網絡和卷積、循環神經網絡等,他也會保留前面幾版的數學風格。但是對於傳統機器學習與深度學習之間的關係,李航老師表示:「它們兩者在技術上是一脈相承的,中間並不可以割裂。」理解經典 ML 的數學原理,也是為前沿 DL 提供新的背景知識或洞見。
  • 記憶哲學:解碼人工智慧及其發展的鑰匙
    本文試圖對從記憶哲學角度闡述哲學對於人工智慧發展提供的洞見:記憶哲學提供了一種思考AI的視野,即從記憶角度能夠很好地理解和解釋AI的發展的理論基礎、存在的理論爭論、未來的發展方向及其可能面臨的危機。在進入分析之前,需要說明的是,記憶哲學提出的三個原則是:(1)記憶是時間意識及其意識現象得以產生的條件;(2)記憶哲學涵蓋記憶與遺忘兩個維度,缺一不可。(3)記憶與回憶存在著根本區分。
  • 計算機程式語言的發展簡史,人工智慧與雲計算程式語言!
    學習一兩門計算機程式語言也如當初學習英文一樣的火熱,隨著人工智慧AI和雲計算的不斷發展,Python語言和Scala語言已經成為這兩個領域裡面最為火熱的程式語言了,可以預知未來學習計算機程式語言的人也一樣會如同學習英文一樣的成為一種新常態,並且成為一種穩定的常態。以下筆者將以自己的學習認知,簡單的闡述一下計算機程式語言的發展。
  • 世界讀書日:解讀雷.庫茲韋爾《人工智慧的未來》中的四大預言
    可是我們如何才能獲得新時代裡知識的「劍」和科技的「矛」呢?答案正如溫伯格所言:「只有有效地繼承人類知識,同時把世界最先進的科學技術知識拿到手,我們再向前邁出半步,就是最先進的水平」。作為奇點大學校長、谷歌工程總監、享有19個榮譽博士頭銜、入選美國發明家名人堂的雷.庫茲韋爾,早已可稱為擁有「劍」和「矛」的人。
  • 潘雲鶴:視覺知識是人工智慧有待探索的富饒「無人區」
    中新社杭州7月26日電 (張煜歡)「過去60年來人工智慧研究的一大弱點就是視覺知識研究的不足。這是一片充滿希望、值得探索的『無人區』。」2020全球人工智慧技術大會此間在浙江杭州舉行。中國工程院院士潘雲鶴在會上稱,視覺知識和多重知識表達研究是發展新的視覺智能的關鍵,也是促進人工智慧2.0取得重要突破的關鍵理論與技術。
  • 李航等提出多粒度AMBERT模型,中文提升顯著
    選自arXiv作者:Xinsong Zhang、李航機器之心編譯編輯:杜偉、小舟自谷歌 BERT 模型問世以來,各式各樣的 BERT 變體模型在自然語言理解任務上大顯身手。近日,字節跳動 AI 實驗室李航等研究者提出了一種新型多粒度 BERT 模型,該模型在 CLUE 和 GLUE 任務上的性能超過了谷歌 BERT、Albert、XLNet 等。BERT 等預訓練語言模型在自然語言理解(Natural Language Understanding, NLU)的許多任務中均表現出了卓越的性能。
  • 人工智慧是什麼意思?人工智慧的未來趨勢
    隨著網際網路的飛速發展,人工智慧越來越走近人們的生活了,那麼人工智慧是什麼意思呢?人工智慧發展前景怎麼樣?下面人工智慧網小編帶領大家一起來了解一下人工智慧以及人工智慧的未來趨勢人工智慧是什麼?人工智慧(Artificial Intelligence)是研究、開發用於模擬、延伸和擴展人智能的理論、方法、技術及應用系統的一門新技術科學。人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。
  • 人工智慧主要分為哪幾個研究階段,未來的發展方向是什麼
    人工智慧概念首次提出後,相繼出現了一批顯著的成果,如機器定理證明、跳棋程序、通用問題、求解程序、LISTP 表處理語言等。但由於消解法推理能力的有限以及機器翻譯等的失敗,使人工智慧走入了低谷。這一階段的特點是:重視問題求解的方法,忽視知識重要性。  第二階段:60 年代末到 70 年代,專家系統出現,使人工智慧研究出現新高潮。
  • 長圖回顧:屬於百度大腦語言與知識技術的激蕩十年!
    8月25日,百度大腦語言與知識技術峰會舉行,展示了在語言與知識技術上十年來的發展歷程和重大成果,既為開發者和企業與AI應用之間,更為人工智慧與這個複雜世界之間,架起了一道獨特的"鵲橋",讓中國AI得以放眼世界、齊目全球。
  • 未來的人工智慧,最熱門的技術趨勢是什麼?
    那麼,如今人工智慧最熱門的技術趨勢是什麼?黑匣認為,複雜神經網絡、LSTMs(長短期記憶網絡)、注意力模型(Attention Models)等十大趨勢將塑造人工智慧未來的技術格局。上述判斷來自NIPS(神經信息處理系統) 2015大會。
  • 人工智慧的發展與審美藝術的未來
    其中,對人工智慧最早的描述可以追溯到17世紀德國著名的數學家和哲學家萊布尼茨,他提出了「通用語言」的設想,「建立一種通用的符號語言,用這個語言中的符號表達『思想內容』,用符號之間的形式關係表達『思想內容』之間的邏輯關係。於是,在『通用語言』中可以實現『思維的機械化』」[4]。
  • 人工智慧與設計(1):人工智慧的發展和定義
    人工智慧逐漸開始在保險,金融等領域開始滲透,在未來健康醫療、交通出行、銷售消費、金融服務、媒介娛樂、生產製造,到能源、石油、農業、政府……所有垂直產業都將因人工智慧技術的發展而受益,那麼我們現在講的人工智慧究竟是什麼?人工智慧是什麼?
  • 除了下圍棋,人工智慧也能無師自通學會雙語翻譯了
    建造這樣一個系統需要大量的數據用於訓練系統,我們需要平行文本,並至少被翻譯成兩種語言。但每當有一種新的語言,都需要專業人士進行調試和修整。隨著技術的發展,科學家發明了人工智慧神經網絡技術來翻譯。以谷歌為例,他的翻譯系統非常強大,需要很多訓練數據和計算資源才能實現,它使用了序列到序列技術(sequence to sequence)。
  • 人工智慧對人類社會的影響及其未來發展
    人工智慧的出現在經濟的快速發展中發揮了重要作用。20多年來,人工智慧的應用已幾乎滲透到經濟領域,空間技術,自動控制,計算機設計與製造等各個領域,並在實際應用中產生了巨大的經濟效益,有效地促進了經濟的發展,社會的科學發展。人工智慧對社會發展的貢獻是有目共睹的,自人工智慧出現以來,社會發展取得了舉世矚目的成就,在許多領域中取得了驕人的成果。
  • 人工智慧的發展及未來暢想
    人工智慧涉及到計算機科學、心理學、哲學和語言學等學科。可以說幾乎是自然科學和社會科學的所有學科,其範圍已遠遠超出了計算機科學的範疇,在不斷的接近。她並不像很多人想像的是幾個科學家的工作,而是隨著社會各學科發展而默默發展的。在智能領域裡,最關鍵的問題之一,就是機器學習的問題。一旦機器有了學習的能力,誰還(敢)預測未來呢?
  • 知識圖譜如何打破人工智慧的認知天花板?
    來源 | AI前線 作者 | 劉暉 知識圖譜作為人工智慧的重要研究領域,其核心理念可追溯到第一次人工智慧浪潮。但直至進入人工智慧下半場,當具備能理解、會思考、可解釋等特徵的認知智能成為突破自身天花板的關鍵,知識圖譜才得以蓬勃發展。