都在用的報告小程序
寫文章、做研究、查資料【必備】
隨著人工智慧和機器人技術取得巨大進步,問題來了,同理心和情緒是可以被設計和複製的,還是它們是不可替代的、對人類來說獨一無二的寶貴品質?
今年6月的一個下午,在IBM位於舊金山的總部,聽眾們就座見證了自蘇格拉底時代以來一直是文明社會標誌的一項傳統——現場辯論。討論的第一個話題是:「我們應該資助太空探索。」反對這一聲明的是Dan Zafrir和2016年以色列全國辯論冠軍Noa Ovadia。他們的對手是一個182釐米高的盒子,裡面放著一個名為Project Debater的人工智慧(AI)軟體。雙方的任務是就這個問題發表一份四分鐘的開場白——雙方都不知道這個問題的答案——然後進行四分鐘的反駁和兩分鐘的總結。
為了形成有力的反駁,人工智慧必須「傾聽」對手的論點。它的回答必須遵循無腳本的推理,提出人們會同意的論點,不是根據客觀得分的邏輯,而是根據主觀投票來判斷獲勝者;人工智慧需要勸誘。辯論結束後,組織者向觀眾進行了仔細的遊說。Project Debater 通過引用消息來源,甚至講笑話,被判定穩操勝局。在關於遠程醫療的第二場辯論中,它也表現得很好,足以證明計算機有朝一日可能具有類似人類決策的能力。然而,當我們驚嘆於尖端技術的進步時,不那麼浮誇的人工智慧形式正悄悄進入我們的日常生活。國際機器人聯合會(International Federation of Robotics)預測,到2020年,全球工廠將安裝170萬臺新機器人。今年4月,美國食品和藥物管理局(FDA)批准IDx向眼科醫生銷售一種人工智慧驅動的診斷設備。但是,病人會滿足於像醫療保健這樣的私人機器嗎?
一種思路是,隨著機器人和人工智慧在工作場所變得越來越普遍,獨特的人類技能和素質將得到重新評價。專門從事無人機和數據的測繪和測量公司Firmatek的總裁Lauren Elmore持這種觀點。「我確實認為……「『人的因素』將成為一個差異化因素,」她表示。「我很少想到聊天機器人能滿足我的需求。」
近年來,Firmatek擴大了它的人際交往——Elmore稱之為公司的「人的因素」——作為其商業戰略的一個獨特部分。次要的行政問題通過電子郵件處理。否則,如果客戶有Elmore所說的「為什麼」問題,Firmatek的專家會安排一個網絡研討會。她還鼓勵通過電話交流。她表示:「我們發現,通常更有效的做法是,拿起電話給客戶打電話,以減輕客戶的恐懼或回答他們的問題。當我們與他們交談時,他們也會感到被重視,而不是僅僅通過我們的系統接收電子郵件。」
的確,自動反應往往感覺膚淺,但如果機器人能夠忠實地模仿人類,哪怕只是在特定的環境下,效果又會是怎樣呢?越來越多的技術開發人員和公司相信,只有變得更像人類,人工智慧系統才能充分發揮其潛力。他們致力於給機器注入「人工情感智能」。情感人工智慧領域的領軍人物是Affectiva,由麻省理工學院(MIT)媒體實驗室的Rosalind Picard和Rana el Kaliouby創立。這對搭檔的第一個項目是針對自閉症患者的,這是一種掃描人臉並為佩戴者解讀社交線索的設備。Affectiva的首批客戶中,有廣告客戶希望利用這項技術來衡量競選活動的影響。el Kaliouby在《麻省理工技術評論》(MIT Technology Review)中寫道:「我們現在被超連接的智能設備所包圍,這些設備具有自動性、可對話性和關係性,但它們完全無法分辨我們有多煩惱、多快樂或多沮喪。這是個問題。」
Ava是首批進入市場的「情緒智能」AI之一。Ava是一款聊天機器人,它利用面部和語音識別軟體檢測喜悅、悲傷和沮喪等情緒,並在屏幕上做出相應的「反應」。Ava (Autodesk Virtual Assistant)由奧克蘭的Soul Machines公司為Autodesk開發,旨在處理客戶服務查詢,每月進行約10萬次對話。Ava看起來很像人類,她的面部表情是通過一個演員的面部掃描創造出來的。但她紫色的虹膜清楚地表明她與眾不同——這一細節是為了避免被學者們稱為「恐怖谷」的情況,即機器人看起來太像人類,但還不夠像人類的那種令人毛骨悚然的感覺。為了在互動前設定場景,Ava宣稱:「我是一個虛擬助理」。根據「靈魂機器」的說法,機器人需要與人交流,但不能太像人。但這種方法對嗎?
在人類與人工智慧的交互中,有一個閾值,在這個閾值上,一個人將停止與計算機對話,並開始像與人類互動那樣做出反應。矽谷Futurewei Technologies的高級機器人軟體架構師Dylan Glas在研究地球上最先進的機器人之一——Erica時發現了這一點。Erato智能會話機器人(Erica)由日本研究人員於2014年發明,是世界上第一個自主機器人——也就是說,她可以進行沒有腳本的對話,就像人類一樣。Glas說,讓人們與Erica互動時,就好像埃裡卡是有意識的一樣。他說:「有時候,如果他們問了一些模糊的問題,Erica做出了恰當的回應,或者如果他們在她說話時打斷了她,她立即停止說話並做出回應。」
讓機器人儘可能地像人一樣工作,讓Glas能夠考慮什麼是人類獨有的。雖然像Affectiva這樣的公司已經在情感識別方面取得了進步,但人類卻能夠擁有一系列複雜的情感狀態。例如,憤怒和嫉妒之間存在著巨大的情感鴻溝,但也有一些重疊,而AI要想區分這些細微的狀態還有很長的路要走。
也許創造一個真正的類人機器人的最大障礙是移情問題。「檢測情緒只是第一步,」Glas說。「為了真正實現『同理心』,機器人需要理解為什麼會有這種感覺,這可能會根據文化規範而有所不同。」他補充說,真正的同理心需要機器人設身處地為人類著想,理解社會背景,並具備「常識」背景知識。「在這個層面上,它不再是一個計算機視覺問題,而是一個對話理解和心智理論的問題。」
即使機器人有一天能夠無縫地複製人類情感並捕捉細微差別,這並不意味著我們會把它們誤認為人類。我們發現詭計的能力很強。對我們來說,有可能的是擱置懷疑。Glas認為這就像和來自不同文化的人交談:如果一個人說不同的語言,有不同的風俗習慣,就很難交流。他說:「但最終,當你理解並接受彼此的文化時,有時你可能會忘記你們有著不同的背景。我相信未來機器人也會發生同樣的事情。也許你不會忘記這是一個機器人,但它將成為一個無關緊要的問題。」
本文來源前瞻網,轉載請註明來源。本文內容僅代表作者個人觀點,本站只提供參考並不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯繫:service@qianzhan.com) 品牌合作與廣告投放請聯繫:0755-33015062 或 hezuo@qianzhan.com