人工智慧面臨倫理困境

2020-12-03 中國社會科學網
谷歌無人駕駛汽車發生事故發人深思 人工智慧面臨倫理困境

2015年07月20日 07:41 來源:中國社會科學報 作者:張清俐

字號

內容摘要:

關鍵詞:人工智慧;谷歌;機器人;倫理意識;無人駕駛汽車

作者簡介:

  日前,已進行測試多年的谷歌無人駕駛汽車發生事故,致人受傷,這一事件再次將人工智慧牽涉的倫理問題推到風口浪尖。人工智慧研究與生俱來具有「哲學特質」。學者認為,不同人工智慧專家推出的人工智慧產品背後有不同哲學預設和思路,由兩個不同編程思維的機器預測同一件事就會得出不一樣的結論;同樣,也不能指望通過造一臺機器解決所有問題,因為造機器的人本身是有限性的。

  人類智慧的物化結果

  目前,眾多網際網路巨頭都在人工智慧領域投入巨大資金,並且在諸如語音識別、圖像識別、自動駕駛汽車技術等人工智慧領域的研究已經初見成果。「包括人工智慧在內每一項技術的誕生、發展和進步,一定程度上都是以機器來替代人類體力和智力作為技術發展邏輯的終點。」上海社會科學院哲學研究所副研究員計海慶說。

  有專家分析認為,在一些災難事件背後,往往都有人為因素導致或加重災難性後果的存在。「在某些特殊情境和極端條件下,人性弱點往往會放大災難後果。」計海慶認為,在某些情況下,技術的應用有助於克服人類的負面情緒。擁有人工智慧的自動機器(或軟體)能夠比人更準確、可靠和完整地執行某些任務。一套足夠成熟的人工智慧系統,可以在一定程度上減少甚至糾正人為不安全因素。

  復旦大學哲學學院教授徐英瑾強調,應該看到即使再智能的機器也是科學家通過統計學、數據挖掘原理等,將科學的規則以編程形式讓機器自動運行,因此,其歸根結底還是人類智慧的物化結果。

  機器人倫理意識成焦點

  事實上,隨著人工智慧技術的廣泛應用,在這些領域廣泛應用的機器人也面臨類似倫理困境:機器人能否成為倫理主體?比如,自動駕駛汽車提升了生活的便捷性,更增強了安全性。然而,面對複雜的公路情況,我們真的可以將可能牽涉「生殺大權」的倫理選擇交給機器人嗎?

  對此,中國社會科學院哲學研究所研究員甘紹平認為,「機器人與具有自由選擇能力的人有根本的區別。」在他看來,前者的行為取決於原因,後者的自主決斷取決於理由,而決定意味著對不同理由的思考和選擇。原因從屬於自然界的必然性,理由則起源於人際交往、社會關聯的運行規則和對文化歷史經驗累積的反思與醒悟。道德選擇的前提是自由意志。意志自由只屬於能夠對理由進行思考、判定、權衡與抉擇的人。機器人不可能擁有自由意志,也不可能具備倫理決策的理解力。

 

  中國政法大學哲學系教授費多益對機器人的倫理意識這一提法進行了質疑,「機器只能在理想情況而不是在綜合複雜的情形下進行識別,後者恰恰與人類主觀經驗密不可分。機器總是機械、精確地執行人類為它編制好的程序,它的算法完全無法刻畫人類視覺思維中的容錯性,而這種容錯性,正是人類值得驕傲的心智特徵。」

  徐英瑾則認為,雖然目前機器人還遠未智能到成為倫理主體,但機器人具有倫理意識並不是完全沒有可能。為實現這一目標,需要人類研究倫理意識和程序之間的關係,以一套程式語言表達這套規則。但他也指出,目前機器人可以扮演「參謀」的角色,即當我們面對不同選擇時,由它提供每一種選擇面臨不同結果的概率,人類有最終決定權,並承擔所有責任。畢竟這一「參謀」提供的選擇源於客觀理性,可以平衡人類的直覺思維,利於人類在直覺與機器方案之間再做平衡選擇。

  警惕人工智慧副作用

  在人工智慧應用的各個領域都不乏審慎的聲音,人們擔心日益成熟的技術可能成為一把「雙刃劍」。今年1月,由一批人工智慧科學家創立的「生命未來研究所」發表了一封公開信,呼籲人們要警惕人工智慧的副作用,並特別提到把人工智慧的法律和倫理研究列為「短期研究優先項」,呼籲倫理學家和人工智慧專家的合作。

  目前關於人工智慧的倫理反思更多出現在科幻作品中。「基於現有的人工智慧理論和可供實現的技術手段,還不存在任何具有成人智力水平的智能系統研發成功的希望。因此,人工智慧的社會應用面臨的倫理困境這類問題,更多帶有思想實驗性質。背後則是倫理學的功利論或義務論的推理模式。」計海慶表示,學術界對於人工智慧的倫理問題的思考具有自己的特點。比如從思想史的角度找出人工智慧技術產生的思想背景,或是歷史上類似的技術在社會化過程中產生過怎樣的問題,以及這些問題是如何被解決或消解的,以此作為一個預見性結論的參照系。

  倫理學家如何與人工智慧科學家進行合作?徐英瑾認為,人工智慧涉及的倫理問題需要業界編程思路與哲學思辨思路相結合。他在《心智、語言和機器:維根斯坦哲學和人工智慧科學的對話》一書中對哲學和人工智慧之間的內在關聯進行了探討,認為倫理學家需要熟悉決策論、博弈論這些經濟學、統計學等領域的理論,思考這些理論的哲學前提,加強對人工智慧話題的人文考量,如此才能夠向業界反饋有質量的意見和建議。

  中國社會科學報記者 張清俐

  

分享到: 0轉載請註明來源:中國社會科學網 (責編:李潔瓊)

相關焦點

  • 「管理科學」人工智慧體引發的倫理困境
    因此,對於目前的人工智慧技術研究而言,找到走出人工智慧體倫理困境的方法至關重要,這也已經成為技術研究人員關注的重點。1.人工智慧技術概述人工智慧即AI,是一種可被應用於各個領域中的模擬人的機器,極大程度地推進了社會進步和經濟發展。當前,人工智慧技術被廣泛應用在醫學、地質、化學和電子學領域。
  • 人工智慧倫理三問:如何對待機器和自身的關係?
    (資料圖片) 當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷發展,它引發的倫理爭議也不斷出現 近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    導讀全球抗疫背景下,人工智慧在醫療場景的應用不斷增加。然而,在新冠疫情中,已有倫理原則的局限性顯現,主要體現在不同倫理準則之間面臨衝突。本文將分析疫情背景下AI倫理準則面臨的新挑戰並探討對策。儘管各國為規範和引領人工智慧發展,相繼發布了人工智慧的倫理準則,然而,這種高度抽象的原則沒有回答一個重要的問題:當現實情境中不同倫理準則之間面臨衝突時,如何處理衝突或進行取捨?
  • 上海交通大學科學史與科學文化研究院舉辦「人工智慧、倫理與文化...
    、倫理與文化主題進行了深入研究,藉此契機探討新時代以科技史、科學技術哲學、科技倫理等為代表的新文科的發展趨勢。尚智叢教授:人工智慧的道德困境尚智叢教授以人工智慧到底能否解決道德問題為開端。指出道德產生的先決條件是自我意識,而認識上的困境體現在缸中之腦思想實驗中,人工智慧在一定程度上亦是如此。缸中之腦最早來源於笛卡爾的我思故我在。作為主體的存在首先要有自我意識,針對自我意識才能談論道德。但是目前為止,人工智慧尚未具備自我意識,因此無法談論人工智慧的道德問題。那麼,人工智慧如何講述道德問題?人工智慧處理人類工作,而人的活動內含道德規範。
  • 上海交大科學史與科學文化研究院舉辦「人工智慧、倫理與文化高端論壇」
    、倫理與文化高端論壇」   10月31日上午9點,由上海交通大學馬克思主義學院科學史與科學文化研究院主辦,上海交通大學文科建設處資助的「人工智慧、倫理與文化高端論壇」在上海交通大學閔行校區圖書信息樓9層會議室召開。
  • 電車悖論—生活中的倫理選擇困境
    價值標準的多元化以及現實的人類生活本身的複雜性,常常導致在具體情境之下的道德判斷與抉擇的兩難困境,即「倫理困境」。倫理的現代困境面對複雜的倫理問題或倫理困境,如何進行倫理選擇和倫理決策?在倫理困境中做出正確的選擇不能僅是靠他律的倫理規範,對每一位行為者來說,「我對……負責」的決定權在於生動的生活而不在於教條的規範,這就要求行為者不論是遵循倫理規範,汲取不同倫理原則的合理之處,還是恰當處理上述各種倫理關係, 具體的責任落實是依賴於「我」積極主動的道德踐履而非冰冷枯燥的規範說教。
  • 虛擬與現實,人工智慧時代的倫理真相
    人工智慧賦能的實體經濟,為生產和生活帶來革命性的轉變,據中國電子學會預測,2022全球人工智慧市場將達到1630億元,2018-2022年CAGR達31%。在人工智慧大勢所趨的背景下,人工智慧面對的監管挑戰和倫理困境就成了一個全球性難題。普京曾經指出:「人工智慧是未來,但也有難以預測的威脅。
  • 解決生育難題面臨倫理困境 人造子宮有望成現實
    以色列本·古裡安大學的弗裡達·西蒙斯坦最近在巴塞羅納舉行的一次關於倫理道德與醫療技術的會議上說,人們希望早產兒有一個更好的結果,又要求提高試管受精的效率,這些要求最終會導致人造子宮研究的開展。但這一技術面臨著巨大的倫理挑戰,在未進行全面的倫理辯論之前不應該推廣這項技術。
  • 美科學家:當人工智慧遇上倫理道德
    原標題:當人工智慧遇上倫理道德   美國宇航局的機器太空人   應對人工智慧武器表明立場   Stuart Russel(美國加州大學伯克利分校計算機科學教授)   人工智慧(AI)和機器人領域的專家面臨一個重要的倫理決策:必須要決定他們是支持還是反對致命自主武器系統(LAWS)。此類系統能在幾年而非幾十年內發展為可行的。
  • 全國首起幹細胞買賣案審判,幹細胞產業化仍面臨倫理困境
    他認為,「目前幹細胞行業當前面臨的最主要問題是標準問題,包括幹細胞的製備儲存、臨床應用等都缺乏標準。尤其是幹細胞的製備、幹細胞的質量控制、幹細胞的臨床應用、臨床應用的療效判定標準等都需要標準來支撐和指引。」 幹細胞行業應該受到政策法規的監管,已成為企業界、法律界和學術界的共識,但是如何監管卻眾說紛紜。
  • 如何與AI談倫理?
    對於人工智慧是否會毀滅人類,有人認為重要的不在技術,而是規則。在人工智慧這股不可逆的潮流中,前有阿西莫夫著名的機器人學三大定律,後有國際人工智慧界正在日益重視的倫理與法律問題,如IEEE全球人工智慧與倫理倡議、阿西洛馬人工智慧23條倫理原則相繼出現,顯而易見,人類渴望著科技的進步,但又恐懼科技的進步。
  • 如何規範人工智慧軍事應用?一文帶你透視美軍的人工智慧倫理準則
    導讀:2019年10月,美國國防創新委員會(Defense Innovation Board)發布《人工智慧準則:推動國防部以符合倫理的方式運用人工智慧的建議》報告。2020年2月24日,美防長正式籤署這一文件,使其成為美國防部在人工智慧倫理領域的官方政策。
  • 《洞穴奇案》:極端倫理困境視野下的法哲學對話
    或許是我過於動搖,抑或是大法官的論證過於精彩,單獨看其中任何一份判決,我都會被無懈可擊的論證說服,但矛盾的是,他們的結論竟截然不同——法律的理想與現實、倫理的困境與矛盾、法律價值的不同排序,使得最終的判決結果呈現出多元化趨勢。各個法官除了發表自身觀點外,也會對持有異議的觀點予以駁斥,這讓我們在簡短而生動的篇幅裡,看到不同法哲學理論生動且激烈的對話。
  • 可辨別性取向的人工智慧引發爭議,專家稱應用需符合倫理道德
    可辨別性取向的人工智慧引發爭議,專家稱應用需符合倫理道德 澎湃新聞記者 於瀟清 劉樂凱 2017-09-14 17:54 來源:澎湃新聞
  • 歐盟人工智慧倫理準則概要
    2019-04-19 14:53:34 | 來源:人民法院報 | 作者:宋建寶   人工智慧
  • 《自然》:4個人工智慧與神經科技的倫理問題,人類如何應對
    2017年5月,美國國家科學基金會贊助在紐約哥倫比亞大學舉辦了一場研討會,我們在會上討論了神經技術和機器智能的倫理問題。我們認為現存的倫理規範對這個領域來說是不夠的。這其中包括《赫爾辛基宣言》,一項誕生於1964年的關於涉及人類被試的醫學研究的倫理原則聲明;《貝爾蒙特報告》,1979年由美國國家生物醫學和行為研究被試保護委員會制定的一份聲明;以及今年年初由商業領袖、人工智慧研究者等多方籤署的《阿西洛馬人工智慧原則》。
  • 騰訊研究院發布《科技向善白皮書2021》提出人工智慧倫理三大共識
    DoNews1月11日消息(記者 翟繼茹)近日,騰訊研究院與騰訊學院聯合發布了《科技向善白皮書2021》,後疫情時代科技如何發展、人工智慧與倫理關係、算法是否會「控制」我們的生活等一系列問題,在白皮書中被詳細探討。
  • 自動駕駛技術讓機器的道德困境提前到來 算法要如何在生命與財產...
    在科幻作品領域,人工智慧未來面臨的道德和倫理困境經常成為探討的核心,我們熟悉的很多影視作品都是由此展開,比如《我,機器人》、《機器人管家》、《人工智慧》等。相關文藝作品的爆發,側面反映了人們對於這一問題的強烈關注。
  • 當AI面臨囚徒困境,是互相攻詰還是相互合作?
    (原標題:谷歌的「邪惡」實驗:當AI面臨囚徒困境,是互相攻詰還是相互合作?)
  • 基因編輯、人工智慧、自動駕駛等新技術遭倫理拷問,怎麼破?
    基因編輯、人工智慧等倫理爭議最受關注根據中國社科院組織的相關調查,在科技倫理領域最受關注的問題中,基因技術排在首位,機器人、人類增強、人工智慧等分列其後。作為一名生殖醫學科學家,北大第三醫院院長喬傑院士身處技術和倫理衝突的「第一線」。