李航:人工智慧的未來 ——記憶、知識、語言

2020-12-17 雷鋒網

雷鋒網 AI 科技評論按:本文作者李航,首發於《中國計算機學會通信》2018 年第 3 期,AI 科技評論獲其授權轉載。該文未經許可,禁止進行轉載、摘編、複製及建立鏡像等任何使用。如需轉載,請通過向 CCFvoice 公眾號後臺申請並獲得授權。

從一個悲劇故事談起

黛博拉(Deborah)輕輕地推開房門,探頭往裡看。克萊夫(Clive)發現進來的是妻子,臉上露出無限的喜悅。他直奔門前,高喊「太好了」,並張開雙臂緊緊地抱住黛博拉。克萊夫一邊和黛博拉親吻,一邊說「你來了,真讓我吃驚」。接著兩人又開始擁抱,好像分別已久。坐下來後,黛博拉用溫柔的眼光看著克萊夫說「其實我今天早上也來過」,克萊夫搖搖頭反駁道「不可能,這是我今天第一次見到你。」這樣的場景每天都在黛博拉和克萊夫之間重複上演。

克萊夫·韋爾林(Clive Wearing)是英國的一位音樂家 。他四十多歲的時候突然患上了病毒性腦炎,這是一種死亡率很高的疾病。幸運的是他活了下來,不幸的是疾病給他留下了失憶症(amnesia)。過去發生的很多事情已不能記起,但他還認識妻子,卻不認識女兒。更嚴重的是他對當前發生的事情不能記憶到腦子裡,幾分鐘後就會完全忘記。他的行動沒有任何問題,語言和思維似乎也正常,可以飲食、行走、說話、寫字,甚至彈琴、唱歌,看上去和正常人一樣。但他就是長期記憶(long term memory)出了問題。他感受到的世界和大家是一樣的,但轉過頭去,剛發生的一切就會從腦海中消失,他所擁有的只是「瞬間到瞬間的意識」,沒有過去可以聯繫,也沒有未來可以展望。

克萊夫·韋爾林用自己不幸的經歷為我們揭示了長期記憶對我們的智能,乃至我們的人生的重要意義。

記憶與智能

人腦的記憶模型如圖 1 所示,由中央處理器、寄存器、短期記憶和長期記憶組成。視覺、聽覺等傳感器從外界得到輸入,存放到寄存器中,在寄存器停留 1~5 秒。如果人的注意力關注這些內容,就會將它們轉移到短期記憶,在短期記憶停留 30 秒左右。如果人有意將這些內容記住,就會將它們轉移到長期記憶,半永久地留存在長期記憶裡。人們需要這些內容的時候,就從長期記憶中進行檢索,並將它們轉移到短期記憶,進行處理[1]。

圖 1 人腦記憶模型

長期記憶的內容既有信息,也有知識。簡單地說,信息表示的是世界的事實,知識表示的是人們對世界的理解,兩者之間並不一定有明確的界線。人在長期記憶裡存儲信息和知識時,新的內容和已有的內容聯繫到一起,規模不斷增大,這就是長期記憶的特點。

大腦中,負責向長期記憶讀寫的是邊緣系統中的海馬體(hippocampus)。克萊夫·韋爾林患失憶症,是因為海馬體受到了損傷。長期記憶實際上存在於大腦皮層(cerebral cortex)。在大腦皮層,記憶意味著改變腦細胞之間的連結,構建新的鏈路,形成新的網絡模式。

我們可以認為,現在的人工智慧系統是沒有長期記憶的。無論是阿爾法狗,還是自動駕駛汽車,都是重複使用已經學習好的模型或者已經被人工定義好的模型,不具備不斷獲取信息和知識,並把新的信息與知識加入到系統中的機制。假設人工智慧系統也有意識的話,那麼其所感受到的世界和克萊夫·韋爾林是一樣的,那就是,只有瞬間到瞬間的意識。

那麼,意識是什麼?這是當今科學的最大疑團之一,眾說紛紜,莫衷一是。日裔美國物理學家加萊道雄 (Michio Kaku)給出了他的定義。如果一個系統與外部環境(包括生物、非生物、空間、時間)互動過程中,其內部狀態隨著環境的變化而變化,那麼這個系統就擁有「意識」[2]。按照這個定義,溫度計、花兒是有意識的系統,人工智慧系統也是有意識的。擁有意識的當前的人工系智能系統缺少的是長期記憶。

具有長期記憶將使人工智慧系統演進到一個更高的階段。這應該是人工智慧今後發展的方向。

智能問答系統

未來人工智慧技術不斷發展,預計將會出現智能性的問答系統,系統包括語言處理模塊、短期記憶、長期記憶、中央處理模塊(如圖 2 所示)。有大量的結構化的、非結構化的信息和知識作為輸入,也有大量的問答語對作為訓練數據。系統能夠自動獲取信息與知識,掌握語言理解與生成能力,將信息和知識處理存儲到長期記憶,理解用戶用自然語言提的問題,利用記憶的信息與知識給出正確的答案。

圖 2 智能問答系統

在某種意義上,現在已經存在這種系統的原型,例如,網際網路搜尋引擎就可以看作是其簡化版。但是要真正構建人類的智能信息助手,還有許多難關要攻克,有許多課題要解決。

知識問答的本質問題是:(1)語義分析,即將輸入的自然語言的表示映射到內部的語義表示;(2)知識表示,即將輸入的信息知識轉換為內部的語義表示。最大的挑戰來自語言的多義性和多樣性,以及知識的模糊性。

語言具有多義性(ambiguity),也就是說一個表達可以表示不同的意思。下面是語言學家查爾斯·菲爾默(Charles Fillmore)給出的例子。英語單詞 climb,其基本語義是四肢用力沿著一條軌跡向上移動,表示「向上爬」的意思。所以如果用 climb 造句,大家一般會給出這樣的句子「The boy climbed the tree」(男孩爬上了樹)。但是 climb 一詞的語義會向不同方向擴展,可以說「Prices are climbing day by day」(物價每日飆升),這裡 climb 就沒有了四肢用力移動的意思。也可以說「He climbed out of a sleeping bag」(他從睡袋中爬出),這裡 climb 就沒有了向上移動的意思。語言的詞彙都具有如下性質:有一個核心的語義,對應一些典型說法,可以由一些特徵表示。但部分特徵可以缺失,形成新的語義,產生新的說法。語言中,除了詞彙的多義性,還有句法的多義性。

同時語言也具有多樣性(variability),也就是說多個表達可以表示同一個意思。比如,「地球和太陽的距離」,「地球離太陽有多遠?」,「太陽和地球相隔有多少公裡?」等,都是同義表達。

人們的知識,特別是常識,具有模糊性(fuzziness)。下面是人工智慧研究的先驅者特裡·維諾格拉特(Terry Winograd)給出的例子。英文中,bachelor 是指未婚成年男性,即單身的意思。看似是一個明確的概念,但是當我們判斷現實中的具體情況時,就會發現我們對這個概念的認識是模糊的,比如,未婚父親是否是 bachelor?假結婚的男子是否是 bachelor?過著花花公子生活的高中生是否是 bachelor?大家並沒有一致的意見。

神經符號處理

近年,深度學習給自然語言處理帶來了巨大變化,使機器翻譯、對話等任務的性能有了大幅度的提升,成為領域的核心技術。但是另一方面,深度學習用於自然語言處理的局限也顯現出來。面向未來,深度學習(神經處理)與傳統符號處理的結合應該成為一個重要發展方向,神經符號處理(neural symbolic processing)的新範式被越來越多的人所接受,其研究也取得初步進展。

圖 3 基於神經符號處理的智能問答系統

深度學習用實數向量來表示語言,包括單詞、句子、文章,向量表示又稱為神經表示(neural representation)。神經表示的優點在於其穩健性,可以更好地應對語言的多義性和多樣性,以及語言數據中的噪音。另一方面,傳統的符號表示(symbolic representation)的優點在於其可讀性和可操作性。語言是基於符號的,計算機擅長的是符號處理,用符號表示語言處理的結果是自然的選擇。神經符號處理旨在同時使用神經表示與符號表示來描述語言的語義,發揮兩者的優勢,更好地進行自然語言處理。

基於神經符號處理的智能問答系統也是由語言處理模塊、短期記憶、長期記憶、中央處理模塊組成,如圖 3 所示。語言處理模塊又由編碼器和解碼器組成。編碼器將自然語言問題轉換為內部的語義表示,存放在短期記憶中,包括符號表示和神經表示。中央處理模塊通過問題的語義表示,從長期記憶中找出相關的信息和知識。長期記憶中的信息和知識也是基於符號表示和神經表示的。找到相關的答案後,解碼器把答案的語義表示轉換為自然語言答案。

最新進展

實現問答系統有三種方法,分別是基於分析的、檢索的、生成的方法。通常是單輪對話,也可以是多輪對話。這裡考慮單輪的基於分析的問答系統。

傳統的技術是語義分析(semantic parsing) [3]。基於人工定義的語法規則,對問句進行句法分析以及語義分析,得到內部語義表示——邏輯表達式。語義分析需要人工定義句法,開發成本較高,可擴展性不好。

近年,基於神經符號處理的問答系統的研究有了很大突破。可以從數據出發,完全端到端地構建問答系統。不需要人工幹預,只需要提供足夠量的訓練數據。問答的準確率也有了一定的提升。傳統的語義分析技術被顛覆。下面介紹幾個有代表性的工作。

臉書(Facebook)的韋斯頓(Weston)等人提出了記憶網絡(memory networks)框架[4],可以用於如下場景的問答:

John is in the playground.Bob is in the office.John picked up the football.Bob went to the kitchen.Q: where is the football?A: playground.

記憶網絡由神經網絡和長期記憶組成。長期記憶是一個矩陣,矩陣的每一個行向量是一個句子的語義表示。閱讀時,記憶網絡可以把給定的句子轉換成內部表示,存儲到長期記憶中。問答時,把問句也轉換成內部表示,與長期記憶中每行的句子語義表示進行匹配,找到答案,並做回答。

谷歌 DeepMind 的格拉夫(Graves)等發明了可微分神經計算機(differentiable neural computer)模型[5]。該模型由神經網絡和外部記憶組成。外部記憶是一個矩陣,可以表示複雜的數據結構。神經網絡負責對外部記憶進行讀寫,它有三種類型,擁有不同的注意力機制,表示三種不同的讀寫控制,對應哺乳動物中海馬體的三種功能。神經網絡在數據中進行端到端的學習,學習的目標函數是可微分的函數。可微分神經計算機模型被成功應用到了包括智能問答的多個任務中。

谷歌的尼拉康藤(Neelakantan)等開發了神經編程器(neural programmer)模型[6],可以從關係資料庫中尋找答案,自動回答自然語言問題。模型整體是一個循環神經網絡。每一步都是基於問句的表示(神經表示)以及前一步的狀態表示(神經表示),還包括計算操作的概率分布和列的概率分布,以及選擇對資料庫表的一個列來執行一個操作(符號表示)。順序執行這些操作,並找到答案。操作表示對資料庫列的邏輯或算數計算,如求和、大小比較。學習時,整體目標函數是可微分的,用梯度下降法訓練循環神經網絡的參數。

谷歌的 Liang 等開發了神經符號機(neural symbolic machines)模型[7]。神經符號機可以從知識圖譜三元組中找到答案,回答像「美國最大的城市是哪個?」這樣的問題。模型是序列對序列(sequence-to-sequence)模型,將問題的單詞序列轉換成命令的序列。命令的序列是 LISP 語言的程序,執行程序就可以找到答案。神經符號機的最大特點是序列對序列模型表示和使用程序執行的變量,用附加的鍵-變量記憶(key-variable memory)記錄變量的值,其中鍵是神經表示,變量是符號表示。模型的訓練是基於強化學習(策略梯度法)的端到端的學習。

圖 4 包含查詢器的智能問答系統

華為公司的呂正東等開發了神經查詢器(neural enquirer)、符號查詢器(symbolic enquirer)和連接查詢器(coupled enquirer)三個模型[8,9],用於自然語言的關係資料庫查詢。例如,可以從奧林匹克運動會的資料庫中尋找答案,回答「觀眾人數最多的奧運會的舉辦城市的面積有多大?」這樣的問題。問答系統包括語言處理模塊、短期記憶、長期記憶和查詢器,語言處理模塊又包括編碼器和解碼器。圖 4 即是這種架構的具體實現。查詢器基於短期記憶的問題表示(神經表示)從長期記憶的資料庫中(符號表示與神經表示)尋找答案。符號查詢器是一個循環神經網絡,將問句的表示(神經表示)轉換為查詢操作(符號表示)的序列,執行操作序列就可以找到答案。利用強化學習,具體的策略梯度法,可以端到端地學習此循環神經網絡。神經查詢器是一組深度神經網絡,將問句的表示(神經表示)多次映射到資料庫的一個元素(符號表示),也就是答案,其中一個神經網絡表示一次映射的模式。利用深度學習,具體的梯度下降法,可以端到端地學習這些深度神經網絡。符號查詢器執行效率高,學習效率不高;神經查詢器學習效率高,執行效率不高。連接查詢器結合了兩者的優點。學習時首先訓練神經查詢器,然後以其結果訓練符號查詢器,問答時只使用符號查詢器。

未來展望

計算機最擅長的是計算和存儲,其強大的計算能力已經在現實中展現出巨大的威力,但是其強大的存儲能力並沒有得到充分的發揮,通常存儲的是數據,而不是信息和知識。計算機還不能自動地對數據進行篩選和提煉,抽取信息和知識,並把它們關聯起來,存儲在長期記憶裡,為人類服務。

可以預見,未來會有這樣的智能信息和知識管理系統出現,它能夠自動獲取信息和知識,如對之進行有效的管理,能準確地回答各種問題,成為每一個人的智能助手。人工智慧技術,特別是神經符號處理技術,有望幫助我們實現這樣的夢想。期盼這一天的到來!

致謝

感謝呂正東、蔣欣、尚利峰、牟力立、殷鵬程等,本文中的很多想法是在與他們合作的工作中產生的。

作者簡介

李航

CCF高級會員,CCCF特邀專欄作家今日頭條人工智慧實驗室主任研究方向:自然語言處理、信息檢索、機器學習等

腳註

網際網路上有文章和視頻介紹克萊夫·韋爾林的生平。

LISP是 List Processing 的縮寫,是一種早期開發的、具有重大意義的表處理語言。它適用於符號處理、自動推理、硬體描述和超大規模集成電路設計等。

參考文獻

[1] Frank L. Learning and Memory: How It Works and When It Fails. Stanford Lecture, 2010.

[2] Michio K. Consciousness Can be Quantified. Big Think, Youtube, 2014.

[3] Percy L. Learning Executable Semantic Parsers for Natural Language Understanding [J]. Communications of the ACM, 2016.

[4] Weston J, Chopra S, Bordes A. Memory Networks[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2015.

[5] Graves A, Wayne G, Reynolds M, et al. Hybrid computing using a neural network with dynamic external memory [J]. Nature, 2016, 538(7626):471.

[6] Neelakantan A, Le Q V, Sutskever I. Programmer: Inducing Latent Programs with Gradient Descent[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2016.

[7] Liang C, Berant J, Le Q, et al. Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision[C]// Proceedings of the 55th Annual Meeting of Association for Computational Linguistics (ACL』17), 2017.

[8] Yin P, Lu Z, Li H, Kao B. Neural Enquirer: Learning to Query Tables with Natural Language[C]// Proceedings of the 25th International Joint Conference on Artificial Intelligence (IJCAI』16), 2016:2308-2314.

[9] Mou L, Lu Z, Li H, Jin Z, Coupling Distributed and Symbolic Execution for Natural Language Queries[C]// Proceedings of the 34th International Conference on Machine Learning (ICML』17), 2017:2518-2526.

相關焦點

  • 華為諾亞方舟實驗室主任李航:長期記憶是人工智慧未來發展方向
    華為諾亞方舟實驗室主任李航做了主題為「人工智慧的未來——記憶、知識與語言」的演講,本文為其演講速記整理:各位專家、同仁大家好,非常高興有機會和大家交流。今天的報告中我想從記憶、知識、語言的角度展望一下人工智慧技術的未來發展趨勢。我的報告分幾部分,首先我們一起看一下記憶和智能的關係。
  • 今日頭條人工智慧實驗室主任李航:如何構建擁有長期記憶的智能問答...
    關於大會第一天的內容,雷鋒網 AI 科技評論之前有詳細報導,具體信息請參見橫跨心理學、計算機科學、神經科學,看中國中文信息學會 2017 學術年會如何引起多個領域大碰撞在此次會議上,作為最後一位特邀報告嘉賓,李航研究員帶來了主題為《人工智慧的未來—記憶、知識與語言》的分享,他此次的分享主要圍繞智能問答系統展開,為大家分析了 NLP 所面臨的三大挑戰、目前值得借鑑的應對方法以及對智能問答系統的展望
  • 字節跳動人工智慧實驗室總監李航:《人類學習與機器學習》 (附視頻)
    為了讓優質的學術資源能夠傳播到社會更多領域,伯禹人工智慧學院將會對此次ACM班學術節內容進行詳細報導。本期伯禹人工智慧學院帶來第二篇講座分享:人類學習與機器學習。人工智慧雖然在某些領域能力超過人類,但是人類智能是所有能力的綜合體現。而其實,當下,人工智慧距離人類智能差距還很大。
  • 華為諾亞方舟實驗室主任李航:神經符號處理開啟自然語言處理新篇章
    以下為李航博士演講內容實錄,雷鋒網做了不改變原意的編輯。今天想跟大家一起看一下,我們現在一個主要研究方向,也希望跟大家一起推動這個研究方向,它是神經符號處理。神經符號處理是未來自然語言處理非常重要的一個方向,這個報告大概分以下幾個部分:一,對自然語言領域做一個概述。
  • 諾亞方舟實驗室李航:深度學習還局限在複雜的模式識別上
    華為技術有限公司諾亞方舟實驗室主任李航認為,機器學習、數據挖掘和人工智慧的研究,對華為未來的智能通信網絡、智能企業管理、智能信息助手三個應用方向很有幫助,比如機器學習對SDN的控制能力、網絡優化、人機互動、跨國交流等,都可以發揮很大的作用。
  • 華為諾亞方舟實驗室主任李航:自然語言處理的未來趨勢
    《自然語言處理中的深度學習:過去、現在和未來》的演講,雷鋒網(公眾號:雷鋒網)根據現場演講整理成本文。華為諾亞方舟實驗室,在整個華為的戰略裡,是肩負著人工智慧、機器學習和數據挖掘方面的研究任務,既有偏長期的工作,也有偏短期的、產品化的工作,那麼我今天主要是講一講,我們已經進行的基礎性長期性的工作。主要包括自動問答、圖片檢索、機器翻譯、自然語言對話領域裡,我們做了哪些模型,取得了什麼樣的效果。自動問答系統 如今的自動問答系統最簡單的實現方式就是檢索。
  • 華為李航:自然語言處理——理想與現實、機遇與挑戰(附PPT及視頻回放連結)
    同時,兩位老師就產品應用、處理難點、語義理解、知識庫、通用人工智慧、神經網絡的記憶等多個大家關注的問題展開了深入的討論和交流。李航老師綜述性地為大家介紹了 NLP 的任務、特點、最新技術以及發展趨勢。李老師精闢地總結道:「給今天的講座大概做一個總結,自然語言理解很難,自然語言處理現在用數據驅動的辦法去做,有五個最基本的問題,即分類、匹配、翻譯、結構預測和馬爾可夫決策過程。
  • 專欄| 字節跳動李航:智能與計算
    機器之心專欄作者:李航字節跳動科技有限公司近日,字節跳動科技有限公司人工智慧實驗室總監李航在《中國計算機學會通訊》神經可塑性是神經網絡的重要 特點,有所謂的赫伯法則(Hebbian rule),認為同 時被激活的神經元之間的連接被強化,產生新的鏈 路,形成新的記憶 (fire together, wire together)。對 概念的記憶存儲於由密切連接的神經元組成的細胞 群中,激活其中的部分神經元可以喚起對整個概念 的記憶。
  • 市北GMIS|字節跳動李航:自然語言對話技術的發展機遇與挑戰
    機器之心報導演講者:李航整理:一鳴說起李航老師,熟悉機器學習領域的讀者朋友不會陌生,他所編寫的《統計學習方法》一書,可謂是機器學習入門的寶典。現在,李航老師是字節跳動人工智慧實驗室總監,在學術界是 IEEE Fellow 和 ACM 傑出科學家。在今年上海召開的市北GMIS 2019 大會上,我們邀請到了李航老師,分享自然語言對話技術領域的相關觀點。以下為演講主要內容,機器之心進行了不改變原意的整理:大家好!非常高興今天有機會跟大家交流。
  • 繼王海峰、李航之後,又有兩位華人學者當選!
    自然語言處理(NLP)素有「人工智慧皇冠上的明珠」盛譽,而在自然語言處理領域,ACL 是世界上影響力最大、也最具活力的國際學術組織,成立至今已有 58年歷史,會員遍布世界60多個國家和地區,代表了自然語言處理領域的世界最高水平,ACL 會士(ACL Fellow)則是授予在本領域取得突出成就的ACL會員的一項傑出榮譽。
  • 青馬學員李航|我不是「學霸」
    姓名:李航今年九月,李航即將升上高二,當別人還在預習高二知識的時候,他就已經完成高中的所有數學課程,並開始自學高等數學中的微積分。李航酷愛看書,之所以對數學和物理有這般熱愛他在本書中「偶遇」擅長理科的城市英雄,他們運用數學和物理等專業知識改變了世界。書中的數字奧秘、力學原理、化合物的神奇組合,對李航來說充滿無限的吸引力,這次書中的奇遇激發了他對理科的探索欲望。
  • 記憶哲學:解碼人工智慧及其發展的鑰匙
    本文試圖對從記憶哲學角度闡述哲學對於人工智慧發展提供的洞見:記憶哲學提供了一種思考AI的視野,即從記憶角度能夠很好地理解和解釋AI的發展的理論基礎、存在的理論爭論、未來的發展方向及其可能面臨的危機。在進入分析之前,需要說明的是,記憶哲學提出的三個原則是:(1)記憶是時間意識及其意識現象得以產生的條件;(2)記憶哲學涵蓋記憶與遺忘兩個維度,缺一不可。(3)記憶與回憶存在著根本區分。
  • 人工智慧入門指南:一文搞懂人工智慧關鍵知識
    計算機科學應用:人工智慧有助於解決計算機科學領域的許多難題,如搜索和優化、邏輯、控制理論、語言分析、神經網絡、分類器和統計學習方法,以及不確定推理的概率方法。人工智慧系統的實現和建設取決於以下技術:自然語言處理:它是研究計算機如何與一種自然的人類語言互動,並獲得一種理解,以採取適當的行動。語音識別和合成是兩種NLP應用。語音助理,如Siri,谷歌助理,亞馬遜的Alexa等等,都是NLP實現的例子。
  • 未來學校語言學習有何變化?「語言能力母語化」研討會在京召開
    會議旨在貫徹落實《國家教育事業發展「十三五」規劃》和《中國教育現代化2035》,推動「未來學校研究與實驗計劃」深入發展,圍繞立德樹人的根本任務和新時代對人才培養的新需求,匯聚創新要素,共同推動未來學校應用母語化的方式培養語言能力。
  • 五子登科APP:人工智慧和未來教育
    2017年底,我們被大量的知識答疑活動包圍著。只要我們回答正確的問題,我們就能平分數百萬獎金,知識就是財富,這句話已被充分證實。知識在當今社會變得越來越重要,人工智慧對社會各個行業都有著不可估量的影響。  作為知識之母的「教育」將因人工智慧而發生巨大變化。
  • 字節跳動李航提出AMBERT!超越BERT!多粒度token預訓練語言模型
    字節跳動 Xinsong Zhang、李航兩位研究者在細粒度和粗粒度標記化的基礎上,提出了一種新的預訓練語言模型,他們稱之為 AMBERT(一種多粒度
  • 共同推動未來學校應用母語化的方式培養語言能力——未來學校...
    今年中心發布了《「未來路線圖」實驗學校發展指南1.0》,《指南》以數智時代學習者發展為中心,以校長與教師發展、課程和教學創新、學習場景重構、測量評價建設和學習生態融合五個方面作為實驗方向,構建了「核心變革層——重點突破層——外延拓展層」三級實驗體系,建立高維時空的知識數據世界,勾勒未來學校發展新路徑,為新的階段未來學校的發展指明了新路徑。
  • 人工智慧是什麼意思?人工智慧的未來趨勢
    隨著網際網路的飛速發展,人工智慧越來越走近人們的生活了,那麼人工智慧是什麼意思呢?人工智慧發展前景怎麼樣?下面人工智慧網小編帶領大家一起來了解一下人工智慧以及人工智慧的未來趨勢人工智慧是什麼?人工智慧(Artificial Intelligence)是研究、開發用於模擬、延伸和擴展人智能的理論、方法、技術及應用系統的一門新技術科學。人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。
  • 李德毅:知識工程才是人工智慧時代最有意義的課題之一,我樂此不疲|...
    在5月16日上午的主論壇中,中國人工智慧學會理事長李德毅發表了《從知識工程到認知工程》的主題演講,提出如今的人工智慧的發展離不開智能科學和技術的研究,知識工程才是人工智慧時代最有意義的課題之一。本文由雷鋒網進行整理,在未改變原意的基礎上略有刪減。李德毅,中國人工智慧學會理事長、中國指揮和控制學會名譽理事長。