人工智慧能否具有自己的意識,都取決於我們自己

2021-01-16 IT之家

北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?而一名人工智慧專家對此的回應是,這主要取決於我們自己是否希望讓機器擁有意識。

▲在現實中,我們也許要在設計時特意將意識加入機器才行

這聽上去可能太大膽了些。意識的內在機制——我們為何對世界有著這般生動而直接的體驗——一直是神經科學領域的一大未解之謎。甚至有人認為,這個謎團將永遠都無法解開。想用客觀的科學方法解釋人們的主觀體驗似乎是不可能的。但在過去的20多年間,科學家對意識開展了大量深入分析,並取得了重大進展。科學家已經發現了一些與意識相關的神經活動,也進一步了解了哪些行為需要意識的參與。大腦會按照潛意識執行許多高級別的認知任務。

▲任何配備了統計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的後設認知能力。

總言之,意識並不一定是我們認知過程的副產物。這一點對人工智慧或許也是如此。在許多科幻故事中,機器只要足夠精密複雜,就會自動生成自己的精神世界。但在現實中,我們也許要在設計時特意將意識加入機器才行。

從科學與工程的角度來看,我們有充分的理由進行嘗試。人類對意識本身的無知便是其中之一。18和19世紀的工程師發明蒸汽機時,物理學家還沒有提出熱力學法則。可見發明有時也能促進理論進步。今天的情況也不例外。針對意識的討論往往太偏於哲學,總是繞來繞去地兜圈子,卻提不出任何實際成果。而少數研究人工意識的專家便希望反其道而行之,在實踐中學習。

此外,意識必須能發揮一定重要功能才行,否則早就在進化過程中被淘汰了。這些功能也可以套用到人工智慧身上。而在這方面,科幻作品同樣造成了誤導。無論是在小說還是電視節目中,意識對人工智慧而言都像是一種詛咒。它們會刻意做出無法預測的行為,而這些行為往往對人類不利。但在現實世界中,這種反烏託邦式的情景其實不大可能出現。無論人工智慧會造成何種風險,都不取決於它們是否具備獨立意識。恰恰相反,有意識的機器還能幫助我們應對人工智慧技術帶來的衝擊。有專家表示,相比毫無想法的自動化技術,他寧願與這些有意識的機器共事。

AlphaGo與人類圍棋冠軍李世石一決高下時,很多專家都在思索AlphaGo為何會按這種方式下圍棋。他們想要解釋並理解AlphaGo的動機和邏輯依據。這種情況對現代人工智慧而言十分普遍,因為它們的決策並非由人類提前設定好,而是通過學習算法和用於訓練它們的數據集自發產生。由於無法參透這些人工智慧,很多人擔心它們的決策可能有失公平、過於武斷。現在已經有了算法歧視的例子。如去年的一項調查發現,佛羅裡達法官和假釋官使用的一套算法存在種族歧視的情況,導致黑人罪犯被標註的累犯概率會高於實際情況,而白人罪犯則低於實際情況。

從明年開始,歐盟法律將給予歐盟居民「要求解釋權」。人們將有權要求相關人士解釋某個人工智慧系統為何會做出某種決策。但這項新要求從技術上來說頗具挑戰性。考慮到目前神經網絡的複雜程度,我們還很難參透人工智慧做出決策的過程,更別提將這個過程翻譯成人類能理解的語言了。

如果我們弄不清楚人工智慧為何會這麼做,能否直接問問它們呢?我們可以為人工智慧配備後設認知能力(metacognition),讓它們回顧自身行為,報告自己的內部精神狀態。這種能力是意識的主要功能之一。神經科學家在測試人或動物是否有意識時,尋找的便是這種能力。例如,自信作為後設認知的基本形式之一,意識體驗越清晰明了、自信水平便越高。如果大腦是在不知不覺中處理信息,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,便會感覺自信許多,比如「我剛才肯定看見了紅色。」

任何配備了統計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的後設認知能力。一些哲學家和神經科學家提出,後設認知能力也許是意識的精髓。根據「意識的高階理論」假設,意識體驗取決於對某種感覺狀態直接表徵的二級表徵。當我們知道某件事時,我們知道自己知道這件事。而如果我們缺乏這種自我意識,便可以說沒有意識,就像處在自動巡航模式一樣,只是簡單地接受感官輸入、並據此採取行動,但並未加以留意。

這些理論為我們打造有意識的人工智慧提供了一定指導。有專家試圖在神經網絡中植入後設認知能力,讓它們能夠與自身內部狀態進行交流。該項目被稱作「機器現象學,模仿的是哲學中的「現象學」概念,即通過對意識體驗的系統性回顧研究意識的架構。但教會機器用人類語言進行表達並非易事。為降低難度,研究人員目前先專注於用機器語言進行訓練,讓它們互相分享自己的回顧性分析。分析內容為人工智慧執行某項任務的指令。這已經超出了一般機器交流的範疇。研究人員並未具體規定機器應如何編譯這些指令,因為神經網絡自身便可產生對應策略。在訓練過程中,若機器能成功將指令傳遞給其它機器,便可獲得獎勵。研究人員希望把該方法進行拓展,用於人類與人工智慧之間的交流,最終讓人工智慧能夠解釋自己的所作所為。

除了讓我們在一定程度上實現自我理解之外,意識還能幫助我們實現神經科學家安道爾·圖威(Endel Tulving)所說的「精神時間旅行」。我們能夠有意識地預測某種行為的結果,或對未來做出規劃。我們能想像在面前揮動自己的手是什麼感覺,也能在腦海中設想去廚房泡茶的場景,但不需要真的去做這些動作。

事實上,就連我們對目前這一刻的感知也是由意識構建出來的。許多實驗和案例研究都證明了這一點。例如,患有失認症的病人由於視覺皮層中與識別物體有關的部分受損,無法辨認出自己看到的是什麼物體,但不影響伸手去拿這件東西。如果給他們一個信封,他們也知道將其投入郵筒。但假如在向患者展示物體與發出讓受試者去拿物體的指令之間存在時延,患者就無法完成拿取物體的任務了。顯然,意識與複雜的信息處理本身無關。只要某個刺激能立即激發相應的動作,就無需意識的參與。但若要將感官信息保留幾秒以上,意識就變得不可或缺了。

從一類特殊的心理條件反射實驗中,也能看出意識對於填補時間差的重要性。在經典的條件反射實驗中(如著名的巴甫洛夫和狗),實驗者會將一種刺激(如對眼瞼吹氣、或對指尖施加電擊)與另一種無關的刺激(如一個純音)進行配對。實驗對象會自動學習到兩種刺激之間存在關聯,不需要有意識地加以努力。一聽到相應的純音(即只有一個振動頻率的聲音),他們就會自動聯想到吹在眼瞼上的氣流或指尖所受的電擊,下意識地做出畏縮動作。而當實驗者問他們為什麼要這麼做時,他們也說不出所以然來。但只有當兩種刺激同時發生時,這種依靠潛意識的學習才會發生。實驗者若將第二種刺激延後些許,受試者便只有清楚地意識到兩者之間存在關係時,即能夠解釋「聽到純音便意味著眼睛要被吹氣了」,才能學習到兩種刺激之間的關聯。這樣看來,受試者要想在刺激停止後保留對刺激的記憶,就必須要有意識的參與。

這些例子說明,意識的功能之一便是擴寬我們感知世界的時間窗口,使眼前這一刻得以延長。在意識的幫助下,即使在刺激消失之後,對刺激的感官信息仍能維持一段時間,保持靈活可用的狀態。在沒有直接感官信息輸入時,大腦也能不斷生成感官表徵。意識的時延功能可以通過實驗證明。科學家弗朗西斯·克裡克(Francis Crick)和克里斯多福·科赫(Christof Koch)提出,人腦僅利用視覺輸入的一部分便可完成對未來行為的規劃。只不過這些視覺輸入應當在有意識的狀態下完成。

這些例子的共同點是,它們都涉及「反事實信息的產生」,即在沒有直接感官信息輸入的情況下產生對應的感覺。我們稱其為「反事實」,因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。我們還用了「產生」一詞,因為它不僅僅是信息處理,還是一個創造和測試假想情景的積極過程。在感官輸入從低級別腦區向高級別腦區流動的單向「前饋」過程中,感官輸入會被壓縮成更抽象的感官表徵。但神經心理學研究顯示,無論這種前饋流動過程多麼複雜,都與意識體驗無關。要有意識的參與,還需要從高級別腦區向低級別腦區發送反饋。

具備了產生反事實信息的能力,意識體便可從當前環境中脫離出來,做出非反射性的行為,如等上三秒再行動。要想產生反事實信息,我們需要建立一個掌握了外部世界統計學規律的「內部模型」,依靠該模型完成推理、運動控制和精神模擬等活動。

目前的人工智慧已經有了複雜的訓練模型,但還要依賴人類提供的數據才能學習。若有了產生反事實信息的能力,人工智慧便可自己生成數據,自己想像未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智慧擁有好奇心。如果人工智慧不確定未來會發生什麼,就會親自去試一試。

目前已經有研究團隊在嘗試為人工智慧配備這種能力了,並且已經有那麼幾次,人工智慧似乎做出了意料之外的行為。在一項實驗中,研究人員模擬了一套能夠駕駛卡車的人工智慧系統。若想讓其爬上山坡,通常需要人類將這一動作設為任務目標,由人工智慧找出完成該任務的最佳路徑。但具備了好奇心的人工智慧系統卻將山坡看成一個問題,即使沒有人類的指令,也會主動尋找爬上山坡的方法。不過該發現還需要進一步研究來驗證。

若將「回顧」和「想像」看作意識的兩大要素,我們遲早會開發出有意識的人工智慧,因為這兩項功能對任何機器都十分有用。我們希望機器能解釋自己做事的方式和原因。而要打造出這樣的機器,也能鍛鍊我們自己的想像力。這將是對意識「產生反事實信息」能力的終極考驗。

相關焦點

  • 宋鴻兵:人工智慧是否會威脅人類,取決於能否進化出人工意識
    意識這個問題,我在作業中也看到大家產生了極大的混淆。所有的概念之所以會產生很混淆,就是因為對這個詞和它定義的範圍搞不清楚。大家爭論的時候,並沒有把所有理性的能量聚焦到一個邏輯點上,所以你才會產生混亂。他這個話是這麼說的:當我有思想的時候,我感到有某種東西從我大腦中飄過去。大家注意,他把這個東西定義成意識。所以意識的基本的定義是感知,是一種自我的覺察,這種自我覺察在現代心理學中對他的定義是什麼呢?這個定義也是五花八門。歸納在一起,提煉出來就是,人,對自己內在的精神狀態和心理狀態的一種自我感覺。這個就叫意識。
  • 人工智慧能否跨越意識鴻溝?
    槍,生來本就是為了殺人,並且它也的確這樣做了,然而卻無人擔憂未來槍也可能會發展出自我意識,隨即殺害所有人類(畢竟這是人類預先賦予它的使命)。不得不承認,大部分人對人工智慧的認知僅停留在「人形智能」層面,並且他們所擔憂或期待的也只是人工智慧能否自發產生動機。
  • 我們需要打造有意識的人工智慧嗎?
    任何配備了統計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的後設認知能力。  新浪科技訊 北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?
  • 人工智慧具有意識嗎?聽聽哲學怎麼說
    而如果我們聚焦於「意識」,我們該如何認識它呢?從意識的起源看:意識是物質世界發展到一定階段的產物。一切物質都具有的反應特性是人類意識產生的物質基礎,從低等生物的刺激反應,到動物的感覺和心理,生物的反應形式是人類意識產生的前提,人類的意識逐漸發展成熟;從意識的生理基礎看:意識是人腦的機能,人腦組織的嚴密性和結構的複雜性,決定了它具有產生意識的生理基礎;從意識的內容看:意識是人腦對客觀事物的反映。
  • 人工智慧的自我意識與信息進化論(二):人工智慧是否會具有自我意識?
    所以「人工智慧應用」共享「人工智慧載體」,並且可能存在於特定的任意範圍內。人的生命由身體和意識組成,意識部分包括了智能。「人工智慧應用」之所以還不是一種生命,是因為其沒有意識。意識並不是人類所獨有的,任何生物,包括動物、植物、細胞都有意識。是否具有自我意識是生命體和非生命體的區分標誌。那麼「人工智慧應用」有可能產生「自我意識」嗎?即便是其特有的意識形式。
  • 人工智慧與意識的差距(深度)
    偉大的數學家和計算機先驅艾倫·圖靈曾建議,與其問人類是什麼,我們可以簡單地說:如果它走路像鴨子,嘎嘎叫像鴨子。圖靈的建議是,如果一個電腦程式可以通過書面交流,而交流者(人)沒有意識到他們在和電腦互動,那麼電腦就可以說是一個具有人類特徵的人工智慧。
  • 在高風險的決策之中,人類能否信任人工智慧
    隨著科技的發展,人工智慧已經滲透到技術的各個方面。從智能音響到聊天機器人,再到機械自動化,人工智慧正在成為數字應用程式的新標準。2019年全球人工智慧市場的增長率達到154%,預計到2021年,80%的新興技術都將以人工智慧作為基礎。儘管人工智慧技術正在變得越來越先進,很多人也有自己的擔憂。
  • 人類的大腦十分重要,人工智慧如何獲得人腦般的意識?有三個因素
    人工智慧似乎在慢慢融入我們的生活,也有人打算創造非常智能的機器人,當然,這是很複雜的事。因為我們連自己的大腦都沒有真正了解多少,大腦包含大約1000億個相互作用的神經元,但這些神經元中只有一小部分位於執行大腦有意識功能的前額皮質。這些神經元在大腦中起著重要的作用。
  • 人工智慧意識的定義,測試和分級
    由於這個原因,即使那些最擔心人工智慧的人們,例如牛津大學的哲學家Nick Bostrom,懷疑人工智慧會在不知不覺中完全趕上我們。然而,我們有理由去想像有意識的機器可能會是其他所有工作的副產品。工程師們通常發明一些新奇的技術。通過深度學習系統,神經網絡和遺傳算法來訓練機器自己來完成複雜的任務而不是執行一系列預先確定好的指令。它們所想出來的解決方案都像生物系統一樣神秘而不可預測。
  • 心理學:社會定義為平等還是公平,取決於我們的社會意識與形態
    我們對他人無禮做出如何反應,取決於我們把無禮歸結於他人的敵意行為,還是歸結於糟糕的心情。人類最危險思維模式:「直覺」直覺的力量很大,但是直覺也很危險。比如:在現實生活中,我們判斷事件發生的可能性取決於想起各種例子的難易程度,這一過程大多數都是以直覺自動完成的。
  • 人工智慧自己寫出一篇文章:我不想消滅人類,霍金擔憂或許是對的
    在我們手機裡也能看見它的蹤影,它可以捕捉我們的生活習慣、活動軌跡,為我們智能的推送一些相關的服務。而且現在的人工智慧已經具備了自我學習的能力,和簡單的人機互動能力,不過目前我們想要看到電影場景中那種類似於人形的智能管家、具有意識的超級機器人還遠遠沒有實現。
  • 你怎麼確定自己有意識?
    它就像是一個位於市中心的交通樞紐,哲學、神經學、量子力學、神學、人工智慧、腦機接口……幾乎所有我們能夠想到的熱門研究方向,都在這個樞紐上不可避免地有所交集。此情此景,前所未見。但在意識問題面前,以前的科學家卻總是束手無策——他們完全不知道該如何著手,甚至連科學能否解決它都不太確定。實際上即便是今天的科學家也無法確定,儘管越來越多人開始踏入這個領域,但都是在摸著石頭過河,有時還得吵吵架。
  • 人工智慧面臨倫理困境
    人工智慧研究與生俱來具有「哲學特質」。學者認為,不同人工智慧專家推出的人工智慧產品背後有不同哲學預設和思路,由兩個不同編程思維的機器預測同一件事就會得出不一樣的結論;同樣,也不能指望通過造一臺機器解決所有問題,因為造機器的人本身是有限性的。
  • 人工智慧發展離不開哲學,所以我們每個人得活出自己的哲學
    要知道,他可是聞名遐邇聲名遠揚的大人物——計算機視覺領域泰鬥級學者,而最近他是以國家戰略科學家的身份回國的,受到北京市政府、北京市科學技術委員會邀請,籌建新型科研機構(民辦非盈利)——北京通用人工智慧研究院,並出任院長。而此次,據報導稱,朱松純教授受聘北京大學講席教授、人工智慧研究院院長。
  • 人工智慧的下一步是什麼?我們應如何定義生命?
    北京時間5月16日消息,據國外媒體報導,凱斯西儲大學的研究人員們正在致力於打造具有出色情緒智能的機器人。他們正在對人工智慧進行改進,力圖創造出能夠實時讀取人類情緒的下一代個性化機器人。那麼,人工智慧機器人的下一步是什麼呢?如果它們能夠模擬生物,我們能否授予它們作為生物的資格?甚至能否授予它們人格呢?
  • 科學家解讀人工智慧:當機器有了意識 我們是謹慎接納還是拒絕
    在過往的兩屆世界頂尖科學家論壇上,人工智慧是科學家繞不開的話題。當前的人工智慧遠不如小說那樣先進:它還不具備科幻電影中所描述的意識動機,可這並不能阻止我們擔心:人工智慧危機會發生在人類的未來。澎湃新聞特此整理世界頂尖科學家論壇往屆參與者關於人工智慧倫理困境的討論,希望能幫助讀者撥開籠罩人工智慧的迷霧,看清人工智慧的未來。
  • 我們可以徹底停止思考嗎?取決於如何定義「思考」
    有時我們也會告訴自己「別想這些了」,但大腦似乎並不聽你的指揮。所以問題來了:我們到底能不能真的停止思考呢?科學家指出,這要取決於你如何定義「思考」。思考是腦細胞之間互相發送化學信號的產物,既可以在有意識的情況下發生,也可以在無意識狀態下發生。
  • 從基因工程、人工智慧看意識的能動性
    你們辛苦上山來談哲學,是自我意識的一個自由決定,可以來也可以不來呢?還是基因或神經決定的一個必然會發生的生理、物理運動呢?你覺得自己有沒有自由意志呢?學生:沒有自由啊,老師讓來我們一定會來,下雪也得來啊!不錯不錯,尊師重教是我們的傳統美德。師:大家好,我們今天討論意識的能動性。
  • 人工智慧能否產生意識?模擬人類的心靈是AI的終極目標
    意識在人工智慧問題的爭論中扮演著重要的角色。人工智慧方法(AIS)是信息領域公司承擔的分布式工程項目,人工智慧長期以來的目的是在真實的世界裡模擬人類的心靈,讓世界充滿人工意識和人工智慧。在人工智慧進入發展階段之前,人們已經通過調查發現,大腦中的知識創造機制等同於人工智慧。某個公司項目的第一個目標是重建的最大brair模型,模擬1000億個神經元的作用,使用集群27 3兆赫處理器來模擬大腦處理問題方式。然而項目也推斷大腦的實時模型是無法實現的,這項工作的目的是要證明這一推論是錯誤的,機器暫時無法模擬人腦。
  • AI與機器人的42個終極問題,機器人能否產生意識?
    因此,通用人工智慧目標的實現可能還需要在神經科學、認知科學、進化方法等多個方向的努力。通用人工智慧究竟能否實現仍是一個懸而未決的問題, 我們甚至還不清楚通用人工智慧究竟必需怎樣的組件或結構。4、 AI能否具有自我意識?