圖靈逝世66年後,AI可以自我思考了嗎?

2020-11-19 騰訊網

作者 | 王煥超 騰訊研究院研究員

圖靈的毒蘋果

1954年6月7日,艾倫·麥席森·圖靈被發現死在家中。剝奪圖靈生命的是一隻沾有氰化物的蘋果,儘管他母親堅持這是一樁意外——因為圖靈的住所常常散落著各種危險化學試劑,但大多數人都認為,這是圖靈難以忍受侮辱而做出的選擇。兩年前,圖靈因同性戀取向而被英國政府定罪,隨後在接近長達一年的時間裡一直進行著所謂的「荷爾蒙療法」,即接受雌激素注射,伴之而生的乳房發育等副作用讓他飽受折磨、痛苦不堪。*

圖靈的早逝無疑是人類歷史上的一個巨大損失。作為「計算機之父」、「人工智慧之父」,圖靈在計算機科學與人工智慧領域有諸多貢獻,他提出的「圖靈機」設想啟發了現代計算機的發明,而其更著名的「遺產」,是一種用於判定機器是否具備智能的測試方法,即「圖靈測試」

圖片來源於網絡

在1950年發表的《機器能思考嗎?》一文中,圖靈第一次提出「機器思維」的概念,他大膽假定機器將產生思考能力,並給出了測試方法:假如一臺機器通過電傳打字機與人溝通,如果有超過30%的人無法在特定時間(5分鐘)內分辨出與自己交談的是人還是機器,即可認為該機器具有思考能力。圖靈還預言,到2000年時,將出現足夠聰明的機器能夠通過測試。

這一測試的聰明之處在於,「意識」、「思維」、「智能」都是難以通過定義來闡釋的東西,那索性就不去思辨概念,而是用另一種公認具有思考能力的生物——人類來作為參照物。如果一臺機器的表現與人類難以區分,即可被視為具備了人類智能。

直至今天,「圖靈測試」也是衡量AI智能程度的重要標尺,研究者們樂此不疲地嘗盡方法以試圖通過測試。可以說,這七十年前提出的思想實驗對當今人工智慧領域依然有十分深遠的影響。

但並非所有人都將「圖靈測試」奉為圭臬。部分研究者指出,這一測試手段可能已經過時,它體現出極強的人類中心主義,其本身的設計也具有極大缺陷。它所導向的是一種欺騙性思路,即AI只要成功「欺騙」了人類,就可被視為是擁有「智能」的主體,這在某種程度上誤導了AI研究的發展方向,對「智能」的評判也並不科學。

1980年,美國伯克利大學哲學教授約翰·塞爾設計了另外一種思想實驗——中文屋實驗,用以證明通過「圖靈測試」的機器並非真正智能。一個只懂英語、完全不懂中文的人被鎖進一個房間,房間內還有一箱中文字片以及指導如何使用字片的手冊。而房間外是一個毫不知情的人,他向屋內遞進字條用中文進行提問,房間裡的人按手冊指導來挑選字片,並且遞出正確答案的字片。單從結果來看,這個人無疑能成功通過測試,但實際上他對中文一無所知。

塞爾認為,房間裡的人就跟通過圖靈測試的機器系統一樣,無須理解輸入輸出字符的含義,只要按照規則搬弄字符,就能形成一種具備真正理解能力的假象。實際上,二者都算不上是真正的理解,最多只是一種扮演行為,並不具備任何思考能力。

中文屋實驗與圖靈測試在哲學界和認知科學領域引發了廣泛討論,兩種實驗各有大量擁躉與反對者。當然,「圖靈測試」側重確立一種衡量AI智能與否的基準,中文屋實驗反對的也只是前者的思路,卻並未否定其前提,即人工智慧將擁有真正的智能。

但距離圖靈預言具備人類智能水平AI將出現的2000年,已經過去了二十多年,雖然人工智慧產業發展得如火如荼,但真正人工智慧似乎還遙遙無期。一個問題被擺上檯面並促逼我們思考:

人工智慧,到底會有自我意識嗎?

AI意識問題,比想像中更重要

與學者們面紅耳赤的激烈爭吵不同,大部分吃瓜群眾會覺得,人工智慧產生意識只是一個時間問題,因而並不重要。這可能是影視作品帶來的一種錯覺——畢竟在大部分未來主題的電影中,AI都是具有意識和情感的。實際上,很多人都低估了這個問題的重要性,但它甚至決定著人類未來命運的走向。

圖片來源於網絡

與處理能力有限的人腦相比,AI的處理能力在理論上是無限的,可以無差別處理收集到的全部信息。一旦AI獲得意識,它們能夠像人類一樣交換、分享信息,只不過在效率上是碾壓人類的。作為結果,AI的智能水平將迅速崛起,並會「消滅」掉包含人類在內的低智能主體——這並不是大屠殺,而是與智慧型手機淘汰功能機一樣的「市場行為」。

現實可能沒有那麼可怕,拉回一點時間線,在AI「毀滅」人類社會之前,假設它的意識水平仍然允許自身為我們所用,那也可能引發道德倫理方面的問題。神經科學家Christof Koch曾舉過一個例子,如果他用錘子將自己的特斯拉汽車砸爛,雖然鄰居可能認為他瘋了,但這只是一臺機器,屬於他的財產,所以可根據需要使用/砸爛它。但如果他毆打自己的狗,警察就會逮捕他。二者的區別在於,狗是有意識的,它能感受到痛苦,而特斯拉並不是一個有意識的主體。這個例子提醒我們,如果機器在某個時間點具備了意識,那麼就會產生意想不到的道德、倫理、法律和政治後果。

同樣值得深思的是,當下的人類社會是一個一元論社會,雖然我們常說「萬物有靈」,但那只不過是在泛靈論基礎上的一種謙辭,真正的現實是,只有人類擁有真正的「智能」與「意識」。如果一旦誕生了擁有意識的另一方主體,建立在一元論基礎上的既有一切都會被顛倒重構。正如趙汀陽所說,人工智慧一旦突破奇點,就會創造不可測的新主體,對於新主體,傳統一元主體的知識、視域和價值觀將會破產,而二元主體(甚至多元主體)的世界還很難推想。

可以想見,如果除人類之外的物種進化到擁有意識時,人類有史以來所積累的所有道德秩序就會失去最重要的邏輯支點,在這種情況下,人類該如何重構自己的道德倫理體系?人的本質何在,人又何以為「人」?儘管許許多多的影視作品呈現了人與AI和諧共處的畫面,但它們都不約而同地規避了這一話題。

幾千年來,人類總是以地球主宰的心態思考問題。這種人本主義心態具有一種先驗的正確性,但無人拷問是否合理。究其核心,就在於人區別於他物的自由精神與意識。如果世界上有其他外觀形式也能夠產生意識,人的主宰權威就會泯滅,自身的超驗背景也會消失。那麼,不再是「萬物靈長」的人類又該如何自處?他能否接受與創造物共享這個世界?

所以,人工智慧是否會產生意識,這個問題異常重要。只不過絕大部分人都沒有意識到此問題的重要性,或者在沒有想清楚這個問題之前,就痴迷於人工智慧紅利而不斷向前加速了。按照雷·庫茲韋爾「奇點理論」的預測,人工智慧的發展將在2050年達到奇點,屆時人工智慧將產生意識,並迅速超越人類智能,倘若該預測為真,那這個問題的緊迫性無疑又提高了一層。

區分「智能」與「意識」

當然,本文無意於圍繞人的主體性進行深入哲思,只是在申明了AI意識問題的重要性之後,我們能夠以更正確的姿勢面對這個問題。那麼,人工智慧會產生意識嗎?

為了回答這個問題,首先要區分一組概念:智能與意識。二者的區別,是我們在想像未來超級智能時最容易混淆的問題。這兩個詞語本就沒有一個明確的定義,當它們與「情緒」、「思維」、「理解」等等詞彙排列在一起時,箇中差異就更加模糊。

圖片來源於網絡

在「中文屋實驗」的語境中,屋子裡的人藉助指導卡片,成功作出回答,但他絲毫不理解中文。確切的說,他只是具備使用中文的「智能」,但卻不具備對中文的「意識」。如果將屋裡的人換成一個翻譯程序,它能準確翻譯中文,但即便速度再快,反應再靈敏,就可以說它真正理解中文了嗎?答案顯然是否定的。

這就是智能與意識的差別。「智能」是指完成複雜目標的能力,而「意識」則是解決問題過程中的主觀體驗。人藉助工具能夠完成各種複雜目標,過程中會感到疲倦、興奮,並且能理解自己行動的目的及行動本身,所以我們可以說人既具有智能,也具有意識。而人工智慧基於機器學習或深度學習,也能完成複雜的目標,但過程中毫無任何「體驗」而言,它也不能理解自己的所作所為。

按照邁克斯·泰格馬克在《生命3.0》中的說法,大腦進化出智能,使人類能夠更好的適應環境和生存繁衍,而意識只是伴智能而生的副產品。實際上,泰格馬克沒能意識到形成意識要遠比產生智能更加困難。

縱觀AI所能做到事情,人臉識別、語音識別、字符識別等等,儘管看起來非常高端複雜,但其本質都只是遵循程序運作的結果。人類掌握的大部分最簡單的技能,AI也不能勝任,因為它從未真正理解自己的行為。

沒有自我意識,再先進的人工智慧也只是人類的「提線木偶」。它可以出色的完成任務,卻不知道自己為什麼要完成任務;它能夠高速運算,卻不知道自己為什麼要運算。識別系統能夠「識別」出你說的是什麼話,卻不能「理解」你在說什麼。因此,如今的人工智慧僅僅可被視為一個複雜的算法,儘管它在許多智力活動上強於人類,但它始終是人類的一種工具。在解決問題方面,工具有先進落後之分,但是工具永遠不會有生命。

可以說,人工智慧的關鍵不在於「智能」,而在於是否具備「意識」。如果缺乏意識,那人工智慧就不是思維主體,仍是人類的工具,其智能程度越高就對人類越有用。反而言之,即使人工智慧在許多方面的能力都弱於人,但只要具備意識,就可能是對人存在潛在威脅的主體。

這也正是人工智慧的尷尬所在。某種程度上,意識屬於「冗餘」的AI特質,非但無益且可能有害,因此不是「造物者」(即人類)所重視的特質。後者之所以要發展人工智慧,就是渴望藉助這些工具的智能來實現目標、提高生產力。換言之,我們需要的是一個埋頭幹活的AI,而不需要它有意識和情緒——不能動不動就耍脾氣,也不能意識到自己正在「被壓迫」——我們可不想讓算法罷工。

所以,如果從目的論的角度來說,這個問題已經有了答案,那就是人工智慧永遠都不會擁有意識。人的一切行為與特質都是為了滿足自身生存的需要,而(對人來說)人工智慧卻沒有產生意識的必要,其首要目標便是毫無風險地為人類貢獻智能。沒有因,自然無果,人工智慧意識崛起的這個命題將永遠缺乏基礎條件。只要人工智慧是在現今計算體系架構上發展起來的,它們也許能夠像人那樣行動,卻毫無任何獲得意識的可能。

從創造主體的角度出發,關於AI意識問題的討論顯然陷入了僵局。

人工智慧如何擁有意識?

如果確信人工智慧絕不可能發展出自我意識,那麼這個問題的討論大可到此為止,我們可以放心地發展AI而不必將其視為潛在危險。但問題在於,即便人類不把意識作為發展AI的主要目標,也不排除「無心插柳柳成蔭」的可能,就技術趨勢而言,人工智慧發展出自我意識仍具備極高的可能性。

接下來的問題便是,人工智慧獲得自我意識到底需要哪些條件。

一種最基本的思路是「量變導致質變」,即人工智慧經過不斷自然發展,最終達到「奇點」,獲得自我意識。問題在於,量變導致質變只是一種現象,卻不是一條必然規律。正如趙汀陽所指出的,技術「進化」的加速度是個事實,技術加速度導致技術升級也是事實,卻不能因此推論說,技術升級必然導致革命性的存在升級,換句話說,技術升級可以達到某種技術上的完美,卻未必能夠達到由一種存在升級為另一種存在的奇點。因此,人工智慧是否能夠通過技術升級的不斷積累而質變為超級人工智慧,仍然是個疑問。

說到底,人工智慧的終極原理是仿生,譬如Alpha Go便是結合了古老的細菌智慧(策略網絡)與高級哺乳動物的智慧(價值網絡)。由於人是唯一擁有自我意識的智能體,因此,要創造具有自我意識的人工智慧,也只能以人作為範本。

人為何會產生意識,按照經驗主義的思路,人的意識源於與世界的交互。人之所以會認知事物、產生意識,都是以大量的經驗為基礎。這些經驗是從一個人生下來就開始積累的,但機器完全不具備這些經驗。這就是為什麼Douglas Hofstadter會說:「一個機器要能理解人說的話,它必須要有腿,能夠走路,去觀察世界,獲得它需要的經驗。它必須能夠跟人一起生活,體驗他們的生活和故事。」同樣有研究者建議,將機器系統裝載到一個具有聽覺、視覺、嗅覺、味覺和觸覺傳感器的機器人身上,讓它行走在我們所處的世界,獲得與人相同的感受,進而獲得產生意識的可能。

在《人工智慧為什麼一定要有身體?》一文中,筆者曾討論過身體之於人工智慧的重要性。AI是沒有「軀體」的,它只能和人類給定的數據交互,卻不能從與環境的互動中獲得「常識」,也就不會形成自我感受和意識。如果要讓AI具備意識,首先就要賦予它一個可以自己控制的軀體,並像普通個體一樣融入物理世界與人類社會。

當然,身體基礎只是意識生成的一種可能假設,問題的關鍵還是在於機器系統本身。足夠智能的計算機一定會產生意識嗎?一種回答來自「整合信息理論」(Intergrated information theory)。整合信息理論試圖定義意識,分析一個物理系統需要具備什麼條件才能擁有意識。其核心觀點為,能夠產生意識的系統,至少具備兩個關鍵特徵:一是這個系統裡包含了多少信息量,二是系統裡信息的整合程度。

在整合信息理論看來,意識的本質其實就是信息,人類的任何一個意識體驗裡都包含著極大的信息量。這接近於計算主義(computationalism)的基本觀點——「認知即計算」,所有的心靈狀態,包括意識經驗都屬於計算狀態,它們完全是與之相關的感覺輸入、行為輸出,以及其他計算狀態之間的功能關係的表徵,因而都是可計算的。

意識的整體水平並不取決於它所在的系統,而取決於信息量與整合程度,這兩個特徵是預測意識大小的關鍵維度。一個系統的信息量越大、整合程度越高,系統意識就越大。任何一個意識體驗,除了包含極大的信息量之外,信息還都是高度整合的,越是強烈清晰的意識狀態,也就越不可分割。換言之,只有信息量與整合程度都處在一個較高水平,意識才會清晰浮現出來。譬如人清醒時的大腦,各個部分不但處理大量信息,而且腦區之間有很多遠距離的交流,這意味著這些信息被高度整合在一起。如果大腦各部分之間的聯繫中斷(例如在麻醉和深度睡眠中),意識就會削弱,甚至消失。

值得注意的是,在整合信息理論的語境中,人工智慧早就產生了意識,只不過非常微弱。因為雖然其系統信息量極大,但它們不是整合的,網絡與網絡之間,算法與算法之間,幾乎處於完全隔離的狀態。

要想使一個系統具有較高的意識級別,它的各個組成部分就必須是專業化的,並且整合充分,即各部分協同工作比各自單獨運行效果更佳。與人工智慧相比,人類大腦的信息量雖然不大,但某些部位如大腦皮層,其神經元之間存在大量連接,因而整合程度相當高,人類意識也就十分清晰。按此思路,如果要提高人工智慧的意識,也就要在增加信息量的同時提升信息的整合程度。以計算機為例,只要各電晶體以及存儲單元之間的連接足夠複雜,那麼它就同人腦一樣可以達到很高的整合信息水平。而為了實現高度的信息整合,借鑑人類大腦結構仍然是最可行的路徑之一。

我們大可暢想,有這麼一類人工智慧將出現,「它可以把世上各種事物間無數錯綜複雜的關係,整理成知識並納入高度整合的單一系統中」(Christof Koch語),那它或許能夠超越專用人工智慧的局限,應對整體性事務,即發展為通用人工智慧(Artificial General Intelligence),或強人工智慧(Strong AI)。由於整合信息的能力處於一個較高水平,它會有意識地感知任何場景。屆時,它將輕易通過包含圖靈測試在內的各種測試,並真正擁有人類最寶貴的東西——意識。

設想是美好的,其困難性在於,目前的科學手段仍不能探明人類自身意識生成之奧秘,甚至連人類大腦的物質性構成也尚未了解完全。在缺乏清晰仿造對象的情況下,打造一個超級整合機器系統幾無可能。因此,人工智慧是否能獲得自我意識,至少當下來看,仍是一個確定性未知的問題。

* 關於圖靈接受雌激素注射的信息參考自BBC中文網報導:https://www.bbc.com/zhongwen/simp/uk-49005296

最近有讀者反映接收不到我們的推送,推薦一個方法:需要大家更多的「在看」支持或將我們設為星標,就能第一時間接收我們的消息。

感謝大家一直對騰訊研究院的關注,我們將繼續為大家提供專業深度的內容。

--END--

在看一下

相關焦點

  • 人工智慧方向改變,圖靈測試是否已過時?
    【編者按】人工智慧已經影響人們的生活很久很久了,甚至可以說,如果沒有人工智慧,現代生活恐怕很難維持。然而什麼是人工智慧,應該怎麼去評判人工智慧,標準有哪些?這些都是值得思考的問題……編譯 | 彎月 責編 | 張文頭圖 | CSDN 下載自視覺中國什麼是圖靈測試?「機器是否能夠思考?」
  • 機器能夠思考嗎?人工智慧鼻祖提出圖靈測試
    機器能夠思考嗎?他在該論文中提出的圖靈測試至今還在啟發著當代人工智慧的發展,而其對於九個反對機器擁有智能的觀點的反駁,如今看來,依舊深刻而高遠。憶古思今,我們才能更好地為人工智慧未來的發展鋪路、續航。 機器能夠思考嗎?艾倫·圖靈在他1950年發表的論文《計算機器和智能》中給出的回答是:能。
  • 亞馬遜科學家:圖靈測試已成古董,要給AI構建新的「黃金標準」!
    【新智元導讀】1950 年,圖靈提出著名的「圖靈測試」去回答「機器能否思考」的問題,目的是判斷機器是否能表現出人類也無法區分的對話行為。70年來,圖靈測試也一直作為學術界的AI「北極星」而存在。近日,亞馬遜語音助手 Alexa 部門的首席科學家認為,人們現在關心的是人機之間的互動,而不是區分機器和人類。他認為,圖靈測試過時了,AI 需要新基準測試!
  • 俞志晨:圖靈機器人4年後可能過圖靈測試
    圖靈測試是圖靈於1950年提出的一個關於判斷機器是否能夠思考的著名試驗,測試某機器是否能表現出與人等價或無法區分的智能。 阿蘭·圖靈被視為計算機科學與人工智慧之父,據說,圖靈的粉絲賈伯斯把公司取名為蘋果,並且以被咬了一口的蘋果作為標誌就是為了紀念這位先驅。 機器是否有可能思考這個問題歷史悠久,1637年,笛卡爾就預言了圖靈測試。1950年,圖靈發表了一篇劃時代的論文,文中預言了創造出具有真正智能的機器的可能性。
  • 超越圖靈測試:判斷機器是否在思考的現代方法
    1950年,艾倫·圖靈提出了著名的測試方法,用來判斷機器是否真的在思考。這一測試在論文發表後經歷了一些演變,其中一個常見的解釋是這樣的:一個人,即審訊者(C),可以通過電腦終端進行交流(現在,我們可能會說通過即時通訊、電子郵件或簡訊);在計算機鏈路的另一端是人(B)或計算機(A)。經過20分鐘的鍵盤通信後,詢問者會表明在另一端是人還是計算機。
  • 圖靈的人工智慧世界
    在那個世界裡,具有自主「學習」和「思考」能力的機器分擔了人類在各個領域的工作;能「思考」的機器通過「自主」的學習可以成為工程師、醫生、詩人、棋手、科學家、畫家、音樂家……凡是人類能做的工作,能「思考」的機器都可以做。圖靈的設想及其驗證方式(圖靈測試)為人類塑造了一幅全新的世界圖景。製造一個長得像人或神話中的人物且擁有遠超人類力量的機器的想法自古就有。
  • 圖靈測試已過時,是時候為AI構建新計算基準了
    自艾倫·圖靈(Alan Turing)發表論文介紹圖靈測試的概念以回應「機器可以思考嗎?」這一問題以來,今年已經是70年了。該測試的目的是確定一臺機器是否可以表現出與人類沒有區別的對話行為。Turing預測,到2000年,在模擬遊戲中,從評估者中隱藏了正在做出響應的人(人類或AI),普通人將AI與人類區分開的機會不到70%。
  • 圖靈測試與科技的更新迭代
    「機器可以思考嗎?」為了回答這一問題,圖靈在70年前提出了圖靈機以及(順帶的)圖靈測試的概念。圖靈在最後預測,到2000年,在圖靈測試裡,普通人從人類之中鑑別出AI的可能性不到70%。為什麼人工智慧領域的學者沒有實現圖靈的預言呢?
  • 奔跑的圖靈
    圖靈是世界上第一位把計算機實際用於數學研究的科學家,也是是第一個提出利用機器實現邏輯代碼的執行,以模擬人類的各種計算和邏輯思維過程的科學家。這是後來設計實用計算機的思路來源,成為當今各種計算機設備的理論基石。由於他在二戰中為破譯德軍密碼做出的巨大貢獻,於1946年獲得「不列顛帝國勳章」,這是英國皇室授予為國家和人民做出巨大貢獻者的最高榮譽勳章。
  • Alexa首席科學家:圖靈測試對AI沒啥意義了
    近日,亞馬遜副總裁兼 Alexa 首席科學家 Rohit Prasad 在《快公司》上發表了文章(原文連結在最後),做出了一項大膽的表態:圖靈測試已經失去了意義,是時候建立一個新的 AI 衡量標準了。「機器能否思考?」這是加密學和人工智慧先驅阿蘭·圖靈在70年前論文 Computing Machinery and Intelligence 的核心問題。
  • 圖靈測試:機器人與人類比試智能—新聞—科學網
    用機器偽裝人   圖靈認為,如果機器能夠與人類溝通並不被辨認出其機器身份,那麼這臺機器就具有智能。   戰前和戰時的思考及實踐,最終化為數學家阿蘭·圖靈在1950年發表的一篇具有跨時代意義的論文。他在論文中詳細闡述了「機器能思考嗎?」這個問題。正是這篇論文中,圖靈設計了一個被後人稱之為圖靈測試的實驗。
  • 超級計算機首次通過圖靈測試 5分鐘回答所有問題
    在「人工智慧之父」阿蘭·圖靈逝世60周年之際,英國雷丁大學本月8日貼出了一份公告,宣布一臺超級計算機首次通過了「圖靈測試」,成功讓人類相信它是一個13歲的男孩。這臺計算機也成為有史以來第一個具有人類思考能力的人工智慧設備,被看做人工智慧發展的裡程碑事件。
  • 人工智慧與圖靈測試
    圖靈,英國數學家、邏輯學家,被視為計算機科學之父。1931年,阿蘭·圖靈(Alan Turing)進入劍橋大學國王學院,畢業後到美國普林斯頓大學攻讀博士學位。「圖靈機」與「馮·諾伊曼機」齊名,被永遠載入計算機的發展史中。1950年10月,圖靈又發表另一篇題為「機器能思考嗎」的論文,成為劃時代之作。也正是這篇文章,為圖靈贏得了「人工智慧之父」的桂冠。圖靈還進一步預測稱,到2000年,人類應該可以用10GB的計算機設備,製造出可以在5分鐘的問答中騙過30%成年人的人工智慧。
  • 俄羅斯計算機「尤金」成為歷史上第一個通過圖靈測試的人工智慧
    在「人工智慧之父」阿蘭·圖靈(Alan Turing)逝世60周年之際,英國科學家昨天(8日)宣布,一臺超級計算機首次通過了「圖靈測試」,成功讓人類相信它是一個13歲的男孩。也就是說,這臺計算機成為有史以來第一個具有人類思考能力的人工智慧設備。
  • 著名的圖靈測試 究竟是什麼鬼?
    圖靈測試,是現代計算機之父阿蘭-圖靈在1950年提出的,想考量的問題是:機器能否思考。 圖靈測試,如果你感覺這個詞比較陌生,我們就先來解釋一下:圖靈測試是測試人(多人)在與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。
  • 著名的圖靈測試,究竟是什麼鬼?
    知識點:圖靈測試,是現代計算機之父阿蘭-圖靈在1950年提出的,想考量的問題是:機器能否思考。圖靈測試,如果你感覺這個詞比較陌生,我們就先來解釋一下:圖靈測試是測試人(多人)在與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。
  • 圖靈測試介紹 圖靈機的工作原理詳解
    進行多次測試後,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這臺機器就通過了測試,並被認為具有人類智能。圖靈測試一詞來源於計算機科學和密碼學的先驅阿蘭·麥席森·圖靈寫於1950年的一篇論文《計算機器與智能》,其中30%是圖靈對2000年時的機器思考能力的一個預測,目前我們已遠遠落後於這個預測。
  • 神劇推薦(附資源):《西部世界》,人類與AI終局命運的思考
    無論是第一季還是第二季,都是採用多時間線敘事,第一季在探尋人與人工智慧共存的思考,以及AI仿生人女主角德洛麗絲的心路覺醒歷程,其對人工智慧思考深度堪稱科幻界經典。在這裡,主要我談談劇集帶給我的關於AI的思考和啟示.
  • 被迫害的圖靈的一生
    【註:大衛·希爾伯特於1900年的國際數學大會上提出了著名的「二十三個問題」,為當時的數學界樹立了23個集體奮鬥的目標(其中的第八個問題就是廣為人知的黎曼猜想/哥德巴赫猜想)而28年後,希爾伯特又提出了三個數理邏輯上的大問題,簡單說來這三個問題分別是:1、數學是完備的嗎?2、數學是相容的嗎?3、數學是可判定的嗎?希爾伯特本人認為這三個答案都是肯定的。】
  • 圖靈之謎-《艾倫·圖靈傳》序
    他自己也是同性戀,按理說同病相憐,但他一切敘述皆從外部證據入手,一直講到五十年代對同性戀的殘忍「治療」,仍然不動聲色,不妄自推測,不抒情,不悲傷---這個人的思維方式,倒真像圖靈測試 中那個既冰冷又詭異的回答者!慢著,難道我們這個世界不就這麼荒誕麼,從外部永難抵達深淵一樣的真相。如今冷靜下來再細讀這本書,仍然感想多多。