李倩 發表於 2018-08-01 17:00:27
摘要: 人工智慧的主流技術的發展大致經歷了三個重要的歷程。
人工智慧的主流技術的發展大致經歷了三個重要的歷程。1956-1965年,人工智慧的形成期,強調推理的作用。一般認為只要機器被賦予邏輯推理能力就可以實現人工智慧。不過此後人們發現,只是具備了邏輯推理能力,機器還遠遠達不到智能化的水平。1965-1990年,人工智慧的「知識期」。這一時期,人們認為要讓機器變得有智能,就應該設法讓機器具有知識。
後來人們發現,知識獲取相當困難。1990年至今,人工智慧進入「機器學習期」。隨著各種機器學習算法的提出和應用,特別是深度學習技術的發展,人們希望機器能夠通過大量數據分析,從而自動學習出知識並實現智能化水平。這一時期,隨著計算機硬體水平的提升,大數據分析技術的發展,機器採集、存儲、處理數據的水平有了大幅提高。特別是深度學習技術對知識的理解比之前淺層學習有了很大的進步,Alpha Go和中韓圍棋高手過招大幅領先就是人工智慧的高水平代表之一。
人工智慧發展的62年中,有高潮,有低潮,呈現波浪式前進,螺旋式提升。1960年代,人工智慧大發展, 1970年代,人工智慧處於低潮,特別是神經網路、機器翻譯等的研究項目大量取消。1980年代,人工智慧發展迎來了「日本五代機」大好時光。但是到1988年,「日本五代機」研究沒有達到預期的目標,引起人們反思人工智慧的研究。1991年,人工智慧頂級刊物「Artificial Intelligence」第47卷發表了人工智慧基礎專輯,指出了人工智慧研究的趨勢。Kirsh在專輯中提出了人工智慧的五個基本問題:
(1) 知識與概念化是否是人工智慧的核心?
(2) 認知能力能否與載體分開來研究?
(3) 認知的軌跡是否可用類自然語言來描述?
(4) 學習能力能否與認知分開來研究?
(5) 所有的認知是否有一種統一的結構?
這些問題都是與人工智慧有關的認知問題, 必須從認知科學的基礎理論進行探討。基礎理論研究是為獲得關於現象和可觀察事實的基本原理及新知識而進行的實驗性和理論性工作,它不以任何專門或特定的應用或使用為目的。
在過去的幾年間,由於神經網絡,或者「深度學習」方法的飛速發,人工智慧已經發生了一場變革,這些人工智慧方法的起源都直接來自神經科學。1943年,心理學家麥克洛奇(W S McCulloch) 和數理邏輯學家皮茲 (W Pitts) 在《數學生物物理公報 (Bulletin ofMathematical Biophysics)》上發表了關於神經網絡的數學模型,提出了MP神經網絡模型,開創了人工神經網絡的研究。
神經計算的研究以建設人工的神經網絡作為開端,這些神經網絡能計算邏輯函數。不久之後,有人提出了另外的一些機制,認為神經網絡中的神經元可能可以逐步地從監督式的回饋或者非監督方法中有效的編碼環境統計下進行學習。這些機制打開了人工神經網絡研究的另一扇大門,並且提供了當代對深度學習進行研究的基礎。費爾德曼(Feldmann) 和 巴拉德(Ballard) 的連接網絡模型指出了傳統的人工智慧計算與生物的「計算"的區別, 提出了並行分布處理的計算原則。
1985年,欣頓(Hinton)和塞傑諾斯基(Sejnowsky) 提出了一個可行的算法,稱為玻耳茲曼(Boltzmann) 機模型。他們借用了統計物理學的概念和方法,首次提出了多層網絡的學習算法。1986年,魯梅爾哈特(Rumelhart) 和 麥克萊倫德(McClelland) 等人提出並行分布處理(Parallel Distributed Processing, 簡稱PDP) 的理論。一群神經科學和認知科學家意識到,他們的研究屬於平行分布式處理(PDP)。
當時,大多數的人工智慧研究都集中在基於序列計算建立邏輯處理系統,這一概念部分是受到這樣一種思路的啟發——人類的智能包含了對符號表徵的處理。但是,在有一些領域,越來越多的人意識到,純粹的符號方法可能過於脆弱,並且在解決人類習以為常的現實問題時,可能不夠靈活。取而代之的是,關於大腦基礎知識的不斷增加,指出了一個非常不一樣的方向,強調動態和高度平行信息處理的重要性。基於此,PDP興起提出了一個思路:人類的認知和行為來自動態的、分布式交互,並且基於神經網絡內單一類神經元的處理單元,通過學習進程來對交互進行調整,他們通過調整參數,以將誤差最小化,將反饋最大化。在各個地方,神經科學為架構和算法的範圍提供了初步指導,從而引導人工智慧成功應用神經網絡。
除了在深度學習發展中的神經科學發揮重要作用之外,神經科學還推動了強化學習(RL)的出現。 強化學習方法解決了如何通過將環境中的狀態映射到行動來最大化未來獎勵的問題,並且是人工智慧研究中使用最廣泛的工具之一。深度 Q 網絡(DQN)通過學習將圖像像素的矢量轉換為用於選擇動作(例如操縱杆移動)的策略,在 Atari 2600 視頻遊戲中展現出專家級的水平。DQN 的一個關鍵因素是「體驗重播」(experience replay),其中網絡以基於實例的方式存儲訓練數據的一部分,然後「離線重播」,從過去新發現的成功或失敗中學習。體驗重播對於最大限度地提高數據效率至關重要,避免了從連續相關經驗中學習的不穩定的影響,使網絡即使在複雜、高度結構化的順序環境中,也能學習可行的價值函數。
體驗重播直接受理論的啟發,這些理論旨在了解哺乳動物大腦中的多個記憶系統如何相互作用。動物的學習行為是由海馬和新皮質中互補學習系統為基礎。DQN 中的重播緩衝區可以被視為一個非常原始的海馬,使計算機能夠進行輔助學習,就像在生物大腦裡發生的那樣。後續工作表明,當具有高度獎勵價值的事件重播被優先考慮時,DQN 中體驗重播的好處得到了增長,正如海馬重播似乎更偏好能夠帶來高水平強化的事件一樣。
存儲在內存緩衝區中的體驗不僅可以用於逐漸將深度網絡的參數調整為最佳策略(就像在 DQN 中那樣),還可以根據個人經驗支持快速的行為變化。事實上,理論神經科學已經證明了情景控制的潛在好處,在生物大腦的海馬中,獎勵動作序列能夠在內部從快速可更新的記憶庫中被重新激活。此外,當獲得的環境經驗有限時,情景控制特別優於其他的學習機制。最近的人工智慧 研究已經吸取了這些想法來克服深度強化學習網絡學習慢的特性,開發了實現情景控制的架構。這些網絡存儲特定的體驗,並且基於當前情況輸入和存儲在存儲器中的先前事件之間的相似性來選擇新的動作,考慮與之前的事件相關聯的獎勵。
智能科學是由腦科學、認知科學、人工智慧等構建的前沿交叉學科,研究智能的基本理論和實現技術。腦科學從分子水平、細胞水平、行為水平研究人腦智能機理,建立腦模型,揭示人腦的本質。認知科學是研究人類感知、學習、記憶、思維、意識等人腦心智活動過程的科學。人工智慧研究用人工的方法和技術,模仿、延伸和擴展人的智能, 實現機器智能。智能科學是實現人類水平的人工智慧的重要途徑,引領新一代人工智慧的發展。
打開APP閱讀更多精彩內容聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴