同理心和情緒是人類獨有還是可被複製,為AI注入人工情感智能你怎麼...

2020-12-05 前瞻網

同理心和情緒是人類獨有還是可被複製,為AI注入人工情感智能你怎麼看?

 olivia chan • 2018-11-27 15:51:22 來源:前瞻網 E556G0

都在用的報告小程序

寫文章、做研究、查資料【必備】

隨著人工智慧和機器人技術取得巨大進步,問題來了,同理心和情緒是可以被設計和複製的,還是它們是不可替代的、對人類來說獨一無二的寶貴品質?

今年6月的一個下午,在IBM位於舊金山的總部,聽眾們就座見證了自蘇格拉底時代以來一直是文明社會標誌的一項傳統——現場辯論。討論的第一個話題是:「我們應該資助太空探索。」反對這一聲明的是Dan Zafrir和2016年以色列全國辯論冠軍Noa Ovadia。他們的對手是一個182釐米高的盒子,裡面放著一個名為Project Debater的人工智慧(AI)軟體。雙方的任務是就這個問題發表一份四分鐘的開場白——雙方都不知道這個問題的答案——然後進行四分鐘的反駁和兩分鐘的總結。

為了形成有力的反駁,人工智慧必須「傾聽」對手的論點。它的回答必須遵循無腳本的推理,提出人們會同意的論點,不是根據客觀得分的邏輯,而是根據主觀投票來判斷獲勝者;人工智慧需要勸誘。辯論結束後,組織者向觀眾進行了仔細的遊說。Project Debater 通過引用消息來源,甚至講笑話,被判定穩操勝局。在關於遠程醫療的第二場辯論中,它也表現得很好,足以證明計算機有朝一日可能具有類似人類決策的能力。然而,當我們驚嘆於尖端技術的進步時,不那麼浮誇的人工智慧形式正悄悄進入我們的日常生活。國際機器人聯合會(International Federation of Robotics)預測,到2020年,全球工廠將安裝170萬臺新機器人。今年4月,美國食品和藥物管理局(FDA)批准IDx向眼科醫生銷售一種人工智慧驅動的診斷設備。但是,病人會滿足於像醫療保健這樣的私人機器嗎?

一種思路是,隨著機器人和人工智慧在工作場所變得越來越普遍,獨特的人類技能和素質將得到重新評價。專門從事無人機和數據的測繪和測量公司Firmatek的總裁Lauren Elmore持這種觀點。「我確實認為……「『人的因素』將成為一個差異化因素,」她表示。「我很少想到聊天機器人能滿足我的需求。」

近年來,Firmatek擴大了它的人際交往——Elmore稱之為公司的「人的因素」——作為其商業戰略的一個獨特部分。次要的行政問題通過電子郵件處理。否則,如果客戶有Elmore所說的「為什麼」問題,Firmatek的專家會安排一個網絡研討會。她還鼓勵通過電話交流。她表示:「我們發現,通常更有效的做法是,拿起電話給客戶打電話,以減輕客戶的恐懼或回答他們的問題。當我們與他們交談時,他們也會感到被重視,而不是僅僅通過我們的系統接收電子郵件。」

的確,自動反應往往感覺膚淺,但如果機器人能夠忠實地模仿人類,哪怕只是在特定的環境下,效果又會是怎樣呢?越來越多的技術開發人員和公司相信,只有變得更像人類,人工智慧系統才能充分發揮其潛力。他們致力於給機器注入「人工情感智能」。情感人工智慧領域的領軍人物是Affectiva,由麻省理工學院(MIT)媒體實驗室的Rosalind Picard和Rana el Kaliouby創立。這對搭檔的第一個項目是針對自閉症患者的,這是一種掃描人臉並為佩戴者解讀社交線索的設備。Affectiva的首批客戶中,有廣告客戶希望利用這項技術來衡量競選活動的影響。el Kaliouby在《麻省理工技術評論》(MIT Technology Review)中寫道:「我們現在被超連接的智能設備所包圍,這些設備具有自動性、可對話性和關係性,但它們完全無法分辨我們有多煩惱、多快樂或多沮喪。這是個問題。」

Ava是首批進入市場的「情緒智能」AI之一。Ava是一款聊天機器人,它利用面部和語音識別軟體檢測喜悅、悲傷和沮喪等情緒,並在屏幕上做出相應的「反應」。Ava (Autodesk Virtual Assistant)由奧克蘭的Soul Machines公司為Autodesk開發,旨在處理客戶服務查詢,每月進行約10萬次對話。Ava看起來很像人類,她的面部表情是通過一個演員的面部掃描創造出來的。但她紫色的虹膜清楚地表明她與眾不同——這一細節是為了避免被學者們稱為「恐怖谷」的情況,即機器人看起來太像人類,但還不夠像人類的那種令人毛骨悚然的感覺。為了在互動前設定場景,Ava宣稱:「我是一個虛擬助理」。根據「靈魂機器」的說法,機器人需要與人交流,但不能太像人。但這種方法對嗎?

在人類與人工智慧的交互中,有一個閾值,在這個閾值上,一個人將停止與計算機對話,並開始像與人類互動那樣做出反應。矽谷Futurewei Technologies的高級機器人軟體架構師Dylan Glas在研究地球上最先進的機器人之一——Erica時發現了這一點。Erato智能會話機器人(Erica)由日本研究人員於2014年發明,是世界上第一個自主機器人——也就是說,她可以進行沒有腳本的對話,就像人類一樣。Glas說,讓人們與Erica互動時,就好像埃裡卡是有意識的一樣。他說:「有時候,如果他們問了一些模糊的問題,Erica做出了恰當的回應,或者如果他們在她說話時打斷了她,她立即停止說話並做出回應。」

讓機器人儘可能地像人一樣工作,讓Glas能夠考慮什麼是人類獨有的。雖然像Affectiva這樣的公司已經在情感識別方面取得了進步,但人類卻能夠擁有一系列複雜的情感狀態。例如,憤怒和嫉妒之間存在著巨大的情感鴻溝,但也有一些重疊,而AI要想區分這些細微的狀態還有很長的路要走。

也許創造一個真正的類人機器人的最大障礙是移情問題。「檢測情緒只是第一步,」Glas說。「為了真正實現『同理心』,機器人需要理解為什麼會有這種感覺,這可能會根據文化規範而有所不同。」他補充說,真正的同理心需要機器人設身處地為人類著想,理解社會背景,並具備「常識」背景知識。「在這個層面上,它不再是一個計算機視覺問題,而是一個對話理解和心智理論的問題。」

即使機器人有一天能夠無縫地複製人類情感並捕捉細微差別,這並不意味著我們會把它們誤認為人類。我們發現詭計的能力很強。對我們來說,有可能的是擱置懷疑。Glas認為這就像和來自不同文化的人交談:如果一個人說不同的語言,有不同的風俗習慣,就很難交流。他說:「但最終,當你理解並接受彼此的文化時,有時你可能會忘記你們有著不同的背景。我相信未來機器人也會發生同樣的事情。也許你不會忘記這是一個機器人,但它將成為一個無關緊要的問題。」

本文來源前瞻網,轉載請註明來源。本文內容僅代表作者個人觀點,本站只提供參考並不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯繫:service@qianzhan.com) 品牌合作與廣告投放請聯繫:0755-33015062 或 hezuo@qianzhan.com

相關焦點

  • 陳根:複製人類同理心,機器人怎麼理解機器人?
    文/陳根同理心是人類的一種特殊心理狀態,是設身處地地對他人的情緒和情感的認知性的覺知、把握與理解,也是指人們將心比心,心理換位的能力。顯然,這種能力除了幫助我們認識他人和理解他人外,也給我們提供了預測他人行為的可能,這意味著,人們能夠更好地合作。
  • 人與動物的同理心,動物是否和人類一樣,相互理解思考?
    今天我們常用一個詞,同理心,指人與人之間相互理解,站在對方立場思考,將心比心。其實,早在達爾文的第二部重要的著作《人類的由來及性選擇》就提出了人與動物同理心的概念,指的是人不僅與動物有相似的解剖特點,而且有相同的心理特徵,以此來證明人是起源於動物。人與動物心理的同質與異質當然,人與動物的同理心是有很大差異的。比如,人的同理心包括幾個內容。
  • 情商的關鍵是同理心,那同理心的本質是什麼?
    這麼去一對比的話,我們似乎可以把他們的區別歸結為以自我為中心為主,還是能夠同時照顧到別人心中的感受。不過當然這樣去歸納有點模糊,我們更喜歡用一個詞去形容,那就是——同理心。同理心在情商修煉中放在了第一位,同時在博弈論,親密關係相處秘訣等等方面,都佔據了很大的比重。
  • 鏡像神經元 | 我們與生俱來的「同理心」
    你知道嗎?其實人們天生就具備「同理心」。首席神經學家馬可·亞科博尼(Marco Iacoboni)發現,在我們的大腦中,有一種腦細胞可以「反射」我們從他人那裡感知到的東西。這一發現可謂是關於同理心的生物學基礎,也是理解「社會大腦」的關鍵。
  • 首屆情感AI大會:當人工智慧理解並具備人類感情時……
    情感是人類智慧和決策的基石人類是高度情緒化的生物,即使大多數時候沒有意識到,情緒也會影響人們所做的一切:引導注意力、影響學習和記憶的方式、對自己和他人的感知、最終影響個人成長以及人格形成。正如AI和深度學習的教父之一Yann LeCun所說:「沒有情感就不可能擁有智能。」情感在高度個人化的同時也是社會化的。
  • 2018人工智慧可以超越人類大腦運作思維嗎?你會怎麼理解?
    不管你今天討論的是傳統人工智慧的邏輯與知識推理主導之專家系統(Expert Systems),還是用模擬神經元連結來處理和儲存資料的人工神經網絡(Artificial Neural Networks),或是用貝茲網絡(Bayesian Network)來計算主觀機率,所有的人工智慧方法都只有一個目的,那就是有效率地完成一生產性工作。人工智慧與人類不同。
  • 同理心和共情能力很強的星座,別人的苦難,他們似乎能感同身受
    好像別人的遭遇,別人的痛苦,他們也能感同身受一般主筆:Miya同理心和共情能力強的一類人,總是容易心軟的一類人,看到別人吃苦受罪的時候,他們仿佛能夠感同身受一般,好像那個遭受磨難的人是自己一樣,哪幾個星座是這類人呢?
  • AI人工智慧可以產生自主意識嗎?
    那麼人工智慧和機械化結合,就可以很好的解決永生問題。霍金曾對人類的未來,做出過幾個預言和警告。其中就有人工智慧過於強大,將會終結人類。如同好萊塢電影《機械公敵》就很好詮釋了人工智慧想反殺人類,改變世界的故事。
  • 悅讀|運用同理心三步驟,讓你說話更容易被對方接受!
    真正的感同身受不是用自己的觀點去看待別人的處境,而是從別人的角度去體會別人的感受,然後給予真誠和關心!很多時候,由於認知和體驗的局限性,我們總是習慣性從自己的角度去看到問題,然後開始「我覺得......,我認為......」。比如,當我們在生活中遇到衣衫襤褸的人時,我們會覺得對方好可憐;遇到一位胡攪蠻纏的人,我們會覺得對方不講情理。
  • 是「同理心」高的表現
    它泛指心理換位、將心比心以及設身處地去對他人的情緒和情感的覺知、把握與理解,。主要體現在情緒自控、換位思考、傾聽能力以及表達尊重等與情商相關的方面。 也就是說"同理心"是發生在人際交往過程中,理解他人的感受、站在他人的角度思考、解決問題進而和他人的內心產生共情。
  • 人生感悟:父親和女兒之間,我學會了同理心
    「這就是你在學習聽課嗎?你太讓爸爸失望了,生怕耽誤你上課,我提前做好了飯菜,你就這樣學習的嗎,是老師講的不好,還是怎麼回事,開著空調,躺在床上看著手機,真舒服哦!」一番冷嘲熱諷,女兒繼續保持抬頭和我對視的姿勢,一聲不吭!我簡直無語,火氣更甚,「把手機給我,給我!」
  • 「我難受孩子也無動於衷」,學會3個步驟,科學培養孩子的同理心
    同理心一般指的是心理換位和移情。也就是站在別人的立場去了解、把握和理解別人的情緒和處境。主要體現在換位思考、傾聽能力、控制情緒和表達尊重等與情商有關的方面。這個概念起源於德國。一般來說,它在個體的情感和社會發展中起著重要的作用。紐約大學的心理學家馬丁·霍夫曼說:「事實上,從嬰兒出生的那一天起,聽到另一個嬰兒哭泣,就會感到很不舒服。」
  • 同理心測試,通情量表 EMP,共情能力測試
    2021-01-03 12:45:53 來源: 科技料 舉報   通情量表EMP,又稱為同理心
  • 菁英校長的同理心教育
    很多領導人認為,決策時應該把同理心排除在外,不只學術界的人士這麼想,商業界的更是。對他們來說,重大決策應該根據經驗事實、數據和冷靜的判斷來定定。但我花了一輩子所了解到的恰好相反。經驗告訴我,做決策和設定目標時,同理心是不可或缺的因素。我們必須透過同理心,檢視行動是否適當,除了數據,我們還必須深入了解每一個人的情況,做出來的決定才能有益於所有人。
  • 同理心和成長性思維重構微軟
    納德拉帶領微軟將業務重心轉到雲服務,讓錯失一系列創新機會的網際網路霸主微軟全面布局雲計算、人工智慧和混合現實,擺脫經營泥淖再度輕舞,沉寂落寞的微軟重新光芒閃耀,東山再起。納德拉帶領微軟公司擁抱同理心、培養無所不學的求知慾和建立成長型思維,不斷試錯迭代、尋求成功轉型方略,實現微軟自我轉型與文化重塑,予力全球每一人、每一個組織。
  • 都怪你,讓我們輸了!抓住時機培養孩子同理心
    「同理心」是多麼基本的處事心態?可是現在的人往往會缺乏同理心。這是為什麼?學校、書本並不會教孩子同理心。所以這需要我們家長在生活中有意識地培養孩子,讓孩子為他人著想。#同理心#我連忙道歉,但是對方還是很憤怒。「對不起,對不起!」「帶著孩子還坐公交車!煩死了!」我也沒有說什麼,畢竟我撞到了他。其實我還是蠻生氣的,我並不是故意的。而且我還帶著個孩子,為什麼不能有點同情心。
  • 人類要被 AI 複製了?三星科幻項目 2020 年就要測試
    當地時間 1 月 6 日晚間,三星發布新聞稿,公布了三星技術和高級研究實驗室(STAR Labs)開發的 Neon 項目,旨在打造讓科幻小說成為現實的沉浸式服務。據悉,Neon 是一種通過計算創建的「人工智人」(Artificial Human),外觀、行為與人類相似,具有表達情感和智慧的能力。
  • 沒有同理心的人是什麼樣的,參考這位女明星
    重點來了,正當張大大滿臉疑惑的時候,她來了句「你往下看,哪個人不辛苦……憑什麼讓別人了解你的辛苦。」這句話的殺傷程度不亞於,妻子懷胎十月,臨產後憔悴虛弱,迫切渴望丈夫的溫暖和關懷時,對方來了句「哪個女人生孩子不疼」,能給到妻子想要的關愛嗎?你會覺得對方活得通透嗎?
  • 周冬雨的一句話,告訴你什麼是同理心,怪不得網友對她路轉粉
    同理心是指設身處地理解,感情移入,共感,共情,也就是心理換位,將心比心,主要體現在情緒自控,傾聽能力以及表達尊重等與情商相關的方面。它跟同情心是有很大的不同的。你會安慰人嗎?可能你覺得自己做得已經很不錯了。很多時候,我們總是想著讓事情變得更好。
  • AI情緒識別技術:你的情緒將不再由你自己定義
    然而,這些情緒監控技術都基於了一種過時的科學概念:所有人都有同樣的六種基本情感。這樣的假設真的成立麼?人類情感的粗暴劃分又會帶來什麼後果呢?讓我們從人類情緒研究的源頭說起,一起來探究這兩個令人細思極恐問題。一個不幸的少年和被他定義的人類情緒大多數情緒檢測技術都基於一個理論基礎,這個理論基礎源自一個不幸的少年。