我們需要打造有意識的人工智慧嗎?

2021-01-16 荔枝網新聞

在現實中,我們也許要在設計時特意將意識加入機器才行

  任何配備了統計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的後設認知能力。

  新浪科技訊 北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?而一名人工智慧專家對此的回應是,這主要取決於我們自己是否希望讓機器擁有意識。

  這聽上去可能太大膽了些。意識的內在機制——我們為何對世界有著這般生動而直接的體驗——一直是神經科學領域的一大未解之謎。甚至有人認為,這個謎團將永遠都無法解開。想用客觀的科學方法解釋人們的主觀體驗似乎是不可能的。但在過去的20多年間,科學家對意識開展了大量深入分析,並取得了重大進展。科學家已經發現了一些與意識相關的神經活動,也進一步了解了哪些行為需要意識的參與。大腦會按照潛意識執行許多高級別的認知任務。

  總言之,意識並不一定是我們認知過程的副產物。這一點對人工智慧或許也是如此。在許多科幻故事中,機器只要足夠精密複雜,就會自動生成自己的精神世界。但在現實中,我們也許要在設計時特意將意識加入機器才行。

  從科學與工程的角度來看,我們有充分的理由進行嘗試。人類對意識本身的無知便是其中之一。18和19世紀的工程師發明蒸汽機時,物理學家還沒有提出熱力學法則。可見發明有時也能促進理論進步。今天的情況也不例外。針對意識的討論往往太偏於哲學,總是繞來繞去地兜圈子,卻提不出任何實際成果。而少數研究人工意識的專家便希望反其道而行之,在實踐中學習。

  此外,意識必須能發揮一定重要功能才行,否則早就在進化過程中被淘汰了。這些功能也可以套用到人工智慧身上。而在這方面,科幻作品同樣造成了誤導。無論是在小說還是電視節目中,意識對人工智慧而言都像是一種詛咒。它們會刻意做出無法預測的行為,而這些行為往往對人類不利。但在現實世界中,這種反烏託邦式的情景其實不大可能出現。無論人工智慧會造成何種風險,都不取決於它們是否具備獨立意識。恰恰相反,有意識的機器還能幫助我們應對人工智慧技術帶來的衝擊。有專家表示,相比毫無想法的自動化技術,他寧願與這些有意識的機器共事。

  AlphaGo與人類圍棋冠軍李世乭一決高下時,很多專家都在思索AlphaGo為何會按這種方式下圍棋。他們想要解釋並理解AlphaGo的動機和邏輯依據。這種情況對現代人工智慧而言十分普遍,因為它們的決策並非由人類提前設定好,而是通過學習算法和用於訓練它們的數據集自發產生。由於無法參透這些人工智慧,很多人擔心它們的決策可能有失公平、過於武斷。現在已經有了算法歧視的例子。如去年的一項調查發現,佛羅裡達法官和假釋官使用的一套算法存在種族歧視的情況,導致黑人罪犯被標註的累犯概率會高於實際情況,而白人罪犯則低於實際情況。

  從明年開始,歐盟法律將給予歐盟居民「要求解釋權」。人們將有權要求相關人士解釋某個人工智慧系統為何會做出某種決策。但這項新要求從技術上來說頗具挑戰性。考慮到目前神經網絡的複雜程度,我們還很難參透人工智慧做出決策的過程,更別提將這個過程翻譯成人類能理解的語言了。

  如果我們弄不清楚人工智慧為何會這麼做,能否直接問問它們呢?我們可以為人工智慧配備後設認知能力(metacognition),讓它們回顧自身行為,報告自己的內部精神狀態。這種能力是意識的主要功能之一。神經科學家在測試人或動物是否有意識時,尋找的便是這種能力。例如,自信作為後設認知的基本形式之一,意識體驗越清晰明了、自信水平便越高。如果大腦是在不知不覺中處理信息,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,便會感覺自信許多,比如「我剛才肯定看見了紅色。」

  任何配備了統計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的後設認知能力。一些哲學家和神經科學家提出,後設認知能力也許是意識的精髓。根據「意識的高階理論」假設,意識體驗取決於對某種感覺狀態直接表徵的二級表徵。當我們知道某件事時,我們知道自己知道這件事。而如果我們缺乏這種自我意識,便可以說沒有意識,就像處在自動巡航模式一樣,只是簡單地接受感官輸入、並據此採取行動,但並未加以留意。

  這些理論為我們打造有意識的人工智慧提供了一定指導。有專家試圖在神經網絡中植入後設認知能力,讓它們能夠與自身內部狀態進行交流。該項目被稱作「機器現象學,模仿的是哲學中的「現象學」概念,即通過對意識體驗的系統性回顧研究意識的架構。但教會機器用人類語言進行表達並非易事。為降低難度,研究人員目前先專注於用機器語言進行訓練,讓它們互相分享自己的回顧性分析。分析內容為人工智慧執行某項任務的指令。這已經超出了一般機器交流的範疇。研究人員並未具體規定機器應如何編譯這些指令,因為神經網絡自身便可產生對應策略。在訓練過程中,若機器能成功將指令傳遞給其它機器,便可獲得獎勵。研究人員希望把該方法進行拓展,用於人類與人工智慧之間的交流,最終讓人工智慧能夠解釋自己的所作所為。

  除了讓我們在一定程度上實現自我理解之外,意識還能幫助我們實現神經科學家安道爾·圖威(Endel Tulving)所說的「精神時間旅行」。我們能夠有意識地預測某種行為的結果,或對未來做出規劃。我們能想像在面前揮動自己的手是什麼感覺,也能在腦海中設想去廚房泡茶的場景,但不需要真的去做這些動作。

  事實上,就連我們對目前這一刻的感知也是由意識構建出來的。許多實驗和案例研究都證明了這一點。例如,患有失認症的病人由於視覺皮層中與識別物體有關的部分受損,無法辨認出自己看到的是什麼物體,但不影響伸手去拿這件東西。如果給他們一個信封,他們也知道將其投入郵筒。但假如在向患者展示物體與發出讓受試者去拿物體的指令之間存在時延,患者就無法完成拿取物體的任務了。顯然,意識與複雜的信息處理本身無關。只要某個刺激能立即激發相應的動作,就無需意識的參與。但若要將感官信息保留幾秒以上,意識就變得不可或缺了。

  從一類特殊的心理條件反射實驗中,也能看出意識對於填補時間差的重要性。在經典的條件反射實驗中(如著名的巴甫洛夫和狗),實驗者會將一種刺激(如對眼瞼吹氣、或對指尖施加電擊)與另一種無關的刺激(如一個純音)進行配對。實驗對象會自動學習到兩種刺激之間存在關聯,不需要有意識地加以努力。一聽到相應的純音(即只有一個振動頻率的聲音),他們就會自動聯想到吹在眼瞼上的氣流或指尖所受的電擊,下意識地做出畏縮動作。而當實驗者問他們為什麼要這麼做時,他們也說不出所以然來。但只有當兩種刺激同時發生時,這種依靠潛意識的學習才會發生。實驗者若將第二種刺激延後些許,受試者便只有清楚地意識到兩者之間存在關係時,即能夠解釋「聽到純音便意味著眼睛要被吹氣了」,才能學習到兩種刺激之間的關聯。這樣看來,受試者要想在刺激停止後保留對刺激的記憶,就必須要有意識的參與。

  這些例子說明,意識的功能之一便是擴寬我們感知世界的時間窗口,使眼前這一刻得以延長。在意識的幫助下,即使在刺激消失之後,對刺激的感官信息仍能維持一段時間,保持靈活可用的狀態。在沒有直接感官信息輸入時,大腦也能不斷生成感官表徵。意識的時延功能可以通過實驗證明。科學家弗朗西斯·克裡克(Francis Crick)和克里斯多福·科赫(Christof Koch)提出,人腦僅利用視覺輸入的一部分便可完成對未來行為的規劃。只不過這些視覺輸入應當在有意識的狀態下完成。

  這些例子的共同點是,它們都涉及「反事實信息的產生」,即在沒有直接感官信息輸入的情況下產生對應的感覺。我們稱其為「反事實」,因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。我們還用了「產生」一詞,因為它不僅僅是信息處理,還是一個創造和測試假想情景的積極過程。在感官輸入從低級別腦區向高級別腦區流動的單向「前饋」過程中,感官輸入會被壓縮成更抽象的感官表徵。但神經心理學研究顯示,無論這種前饋流動過程多麼複雜,都與意識體驗無關。要有意識的參與,還需要從高級別腦區向低級別腦區發送反饋。

  具備了產生反事實信息的能力,意識體便可從當前環境中脫離出來,做出非反射性的行為,如等上三秒再行動。要想產生反事實信息,我們需要建立一個掌握了外部世界統計學規律的「內部模型」,依靠該模型完成推理、運動控制和精神模擬等活動。

  目前的人工智慧已經有了複雜的訓練模型,但還要依賴人類提供的數據才能學習。若有了產生反事實信息的能力,人工智慧便可自己生成數據,自己想像未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智慧擁有好奇心。如果人工智慧不確定未來會發生什麼,就會親自去試一試。

  目前已經有研究團隊在嘗試為人工智慧配備這種能力了,並且已經有那麼幾次,人工智慧似乎做出了意料之外的行為。在一項實驗中,研究人員模擬了一套能夠駕駛卡車的人工智慧系統。若想讓其爬上山坡,通常需要人類將這一動作設為任務目標,由人工智慧找出完成該任務的最佳路徑。但具備了好奇心的人工智慧系統卻將山坡看成一個問題,即使沒有人類的指令,也會主動尋找爬上山坡的方法。不過該發現還需要進一步研究來驗證。

  若將「回顧」和「想像」看作意識的兩大要素,我們遲早會開發出有意識的人工智慧,因為這兩項功能對任何機器都十分有用。我們希望機器能解釋自己做事的方式和原因。而要打造出這樣的機器,也能鍛鍊我們自己的想像力。這將是對意識「產生反事實信息」能力的終極考驗。(葉子)

新浪科技公眾號

  「掌」握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)

加載中

相關焦點

  • 科學家解讀人工智慧:當機器有了意識 我們是謹慎接納還是拒絕
    在過往的兩屆世界頂尖科學家論壇上,人工智慧是科學家繞不開的話題。當前的人工智慧遠不如小說那樣先進:它還不具備科幻電影中所描述的意識動機,可這並不能阻止我們擔心:人工智慧危機會發生在人類的未來。澎湃新聞特此整理世界頂尖科學家論壇往屆參與者關於人工智慧倫理困境的討論,希望能幫助讀者撥開籠罩人工智慧的迷霧,看清人工智慧的未來。
  • 人工智慧能否具有自己的意識,都取決於我們自己
    北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?而一名人工智慧專家對此的回應是,這主要取決於我們自己是否希望讓機器擁有意識。一些哲學家和神經科學家提出,後設認知能力也許是意識的精髓。根據「意識的高階理論」假設,意識體驗取決於對某種感覺狀態直接表徵的二級表徵。當我們知道某件事時,我們知道自己知道這件事。而如果我們缺乏這種自我意識,便可以說沒有意識,就像處在自動巡航模式一樣,只是簡單地接受感官輸入、並據此採取行動,但並未加以留意。這些理論為我們打造有意識的人工智慧提供了一定指導。
  • 人工智慧應該有「意識」嗎?這是一個錯誤的問題
    編者按:人工智慧技術的快速發展,它會具備人類意識嗎?它應該具備人類意識嗎?成了人們討論的話題。但在丹尼爾·丹尼特(Daniel C. Dennett)看來,人工智慧會具備人類意識,是一個錯誤的問題。重要的是我們要保持這種狀態,這需要做一些事情。 從長遠來看,「強人工智慧」或通用人工智慧原則上是可能的,但不可取的(下面有更多介紹)。 今天實際上可能出現的更受約束的人工智慧,不一定是邪惡的。但是它也帶來了一系列的危險——主要是它可能會被誤認為是強大的人工智慧! 二、 許多外行和內行的人,都低估了今天的系統和主導大眾想像的科幻系統之間的差距。
  • 人工智慧會有意識嗎?| 五部探索人工智慧哲學的影視作品
    作者:Philip Goff編譯:詹妮花原文來自企鵝蘭登英國官網每年,人工系統複製人類認知的能力都有非凡的發展。人工系統正在駕駛汽車,預測選舉,並在有史以來最複雜的遊戲中擊敗人類。有很多關於技術的文章,但是這些技術創新意味著什麼呢?這些系統能思考嗎?怎樣才能使一個人工智慧有意識呢?
  • 人工智慧具有意識嗎?聽聽哲學怎麼說
    而如果我們聚焦於「意識」,我們該如何認識它呢?從意識的起源看:意識是物質世界發展到一定階段的產物。據此,意識的產生需要一定的前提與基礎,如生物的反應形式、意識的物質器官、客觀的外在事物,但顯然,作為機器屬性的人工智慧不是生物,也就沒有生物的反應形式,更沒有作為意識的物質器官——人腦,也就缺乏了相應基礎,那麼在此意義上人工智慧是不具有意識的。另外,人類意識的獨特性可以從三個方面來看:語言。
  • 人工智慧與意識的差距(深度)
    政界人士、商界人士和媒體人士都在圍繞人工智慧編寫故事,這些故事能夠激發他們的深層情感,並為他們所用。與此同時,真相只能在普通人接觸不到的密集的技術文獻中找到。我們所說的智力是什麼意思?智力是純粹的人類特徵嗎?大多數人會認為有些狗比其他的狗更聰明。或者狗比豚鼠更聰明,所以很明顯,智力是動物可以擁有的。如果狗能有智力,鳥也能嗎?蚯蚓或植物呢?
  • AI人工智慧能產生自主意識嗎?
    我想提一個大膽的假設,隨著科技發展,人類的身體會老死,但是意識可以延續保留對嗎?那麼未來的人類,可能會成為半機械化,或者擁有全機械化身體。而大腦意識和記憶,就可以在新的身體得以延續。最終實現古代君王所一直追求的長生不老,永生不死。
  • 人工智慧的自我意識與信息進化論(二):人工智慧是否會具有自我意識?
    所以「人工智慧應用」共享「人工智慧載體」,並且可能存在於特定的任意範圍內。人的生命由身體和意識組成,意識部分包括了智能。「人工智慧應用」之所以還不是一種生命,是因為其沒有意識。意識並不是人類所獨有的,任何生物,包括動物、植物、細胞都有意識。是否具有自我意識是生命體和非生命體的區分標誌。那麼「人工智慧應用」有可能產生「自我意識」嗎?即便是其特有的意識形式。
  • 訪談| Jürgen Schmidhuber:人工智慧在1991年就已經獲得了「意識」
    所以我們努力理解人工智慧是否具有意識也就不足為奇,也難怪圖靈測試越來越無法提供我們需要的答案。因為我們無法證明人工意識,很多工程師和專家對這種觀點都是都條件反射地不屑一顧。但是 Jürgen Schmidhuber 不是這樣,他很喜歡這個古怪的遊戲。
  • 當人工智慧的PS玩得比你溜,我們還需要設計教育嗎?
    我們也看到,IBM以Watson命名的人工智慧系統在醫療方面的研究,讓我們初窺了未來的發展趨勢。大家知道,在未來的一段時間裡,我們的很多工作都會被人工智慧所取代。這裡面也不可避免地包含設計師的工作。就在去年的雙十一,阿里巴巴的人工智慧系統「魯班」,在一天時間中創造了4.1億針對個人用戶的海報。
  • 從數學領域看,AI「人工智慧」可能已經有意識了?
    AI也就是人工智慧,大部分人對這個詞都不會陌生。然而,大多數高級AI研究的最終目標卻是開發「通用人工智慧」(即:GAI)。本質上,我們想要的是一種合成的思維,如果將其放置在具有類似功能的物理容器中,它的功能可以與人類相同。
  • 人工智慧能否跨越意識鴻溝?
    來源:zhihu俗話說,有一千個讀者,就有一千個哈姆雷特,人工智慧(AI)之於我們亦是如此。對於何為人工智慧這一問題,並未出現某個舉世公認的答案。通常,人們僅憑直覺來認知人工智慧,以致其結果常模稜兩可。
  • 人工智慧意識的定義,測試和分級
    我們的機器可能在我們不知情的情況下擁有自我意識。我們需要一種更好的方法來為意識做定義和測試。通常人們想像一臺擁有自我意識的機器的時候,他們都會想像到這樣的場景,一個機器人在經過不懈的努力之後迅速聲名鵲起,並且在大多數的場景中都伴隨著災難。
  • 人工智慧機器人會產生意識嗎?如果會,有什麼後果?
    雖然計算機科學家和工程師們創造了一些模擬「思維」的算法,但這只是一種很淺顯的表象的模擬,與真正賦予機器意識仍然有本質的不同。關於人類的意識,科學家都還有太多不了解的地方。如何定義意識本身,都是一個大問題,這可能需要從哲學的角度。有哲學家就說了:這個概念最好通過意識是什麼和不是什麼這樣的具體例子來解釋,比如說生動的感覺是意識的一部分。
  • 強弱AI的辯論:關於人工智慧意識的奇妙理論
    人工智慧的技術炒作太多了,有時應該回到其哲學根源。而在圍繞AI的所有哲學爭論中,最重要的就是對強弱AI的爭論。  從技術角度來看,我贊成這樣的想法,即在實現某種形式的強大或通用AI的領域,我們實現了一兩個突破。但從哲學的角度來看,仍然存在一些需要調和的挑戰。許多挑戰都可以通過上世紀奧匈帝國數學家開創的晦澀理論以及神經科學研究的領先領域之一來解釋。
  • 從基因工程、人工智慧看意識的能動性
    這個問題也比較複雜,我們一點點來。師:學習馬克思主義基本原理時講過,人的意識活動具有目的性和計劃性,馬克思說人在勞動過程結束時才能得到勞動結果,但這個結果早就作為觀念或目的或計劃,存在於勞動者的思想中。這個合目的性、計劃性人工智慧有嗎?生:當然有,只不過它是以程序方式存在的,每個程序都有目的和計劃啊。
  • 人類的大腦十分重要,人工智慧如何獲得人腦般的意識?有三個因素
    人工智慧似乎在慢慢融入我們的生活,也有人打算創造非常智能的機器人,當然,這是很複雜的事。因為我們連自己的大腦都沒有真正了解多少,大腦包含大約1000億個相互作用的神經元,但這些神經元中只有一小部分位於執行大腦有意識功能的前額皮質。這些神經元在大腦中起著重要的作用。
  • 宇宙終極謎團之一:意識,人工智慧如何產生意識,人死後是怎樣的?
    Hello 大家好,我是無陌然,今天我們來聊一個比較深奧的東西:意識。意識這個東西,相信對於大家來說都不陌生,我們每個人都有意識,因此我們才可以自主地思考問題,學習一些新的東西。我們每天都在使用手機和電腦他們是沒有意識的,那麼你知道他們為什麼沒有意識嗎?
  • 人造意識是否能夠實現?否則還談什麼人工智慧
    他認為意識具有某種超能力。無論計算機有多麼強大,意識總能完成某些對於計算機而言不可能的任務。 阿隆森舉出了一些例子(我們之後會對它們進行詳細分析): 我們會問:如果意識可以通過計算來還原,那什麼樣的運算量才足以產生意識呢?如果地球上的每個人都作為大腦的一個神經元,並通過傳遞紙條來交流呢?如果傳紙條的速度足夠快會發生什麼?或者我們建立一個巨大的查詢表,你的每個可能的反應都可以在最多5分鐘內被硬編碼,這能生成你的意識嗎?
  • 假如機器擁有智慧,世界還需要人類嗎?人工智慧的哲學展望
    人工智慧的發展與人類未來的命運密切相關。許多人開始意識到,人工智慧的發展,不僅是人類可以利用的工具的發展,而且意味著人類生存方式的根本改變。人工智慧不僅是技術問題,同時也是哲學問題。例如,人們或許可以思考一個問題,假如機器擁有了超越人類的智慧,世界還需要人類嗎?屆時,從機器的立場看,人類的文明意義何在?