人工智慧倫理三問:如何對待機器和自身的關係?

2020-12-13 人民網

原標題:人工智慧倫理三問

法國生產的EZ10無人駕駛公交車已正式投入運行,隨著人工智慧技術不斷發展,相關法律、法規亟待完善。 (資料圖片)

當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷發展,它引發的倫理爭議也不斷出現

近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。

對人工智慧的討論足夠了嗎

迄今為止,我們對人工智慧可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏

要理解人工智慧的社會影響,首先要認識人工智慧在社會發展中的獨特作用。在人類發展進程中,知識的增長和社會協作體系的擴展起到了重要作用,而這一切都離不開人類大腦提供的智能基礎。

報告認為,人工智慧的發展,將帶來知識生產和利用方式的深刻變革,人工智慧不僅意味著前沿科技和高端產業,未來也可以廣泛用於解決人類社會面臨的長期性挑戰。從消除貧困到改善教育,從提供醫療到促進可持續發展,人工智慧都大有用武之地。

例如,人工智慧可以大幅度降低醫療服務的成本,緩解醫療人才不足的局面。在教育領域,人工智慧能夠分析人們獲取知識的方式,然後利用這些信息開發出相應模型,來預測人們的投入和理解程度。人工智慧還可以改變貧困地區高水平教師不足、教學質量低下的局面,促進教育公平。

此外,人工智慧可以服務於殘障人士。例如,微軟最近在ios應用程式商店推出了一款名為「seeing AI」的產品,幫助失明和弱視人群應對日常生活中的問題。「seeing AI」的開發團隊包括一名在7歲時就失明的工程師,這一應用程式儘管還處於早期階段,但已證明人工智慧可以捕捉用戶周圍的圖像並即時描述。比如,它可以讀取菜單、清點貨幣等,從而幫助殘障人士提高生活能力。

然而,迄今為止,我們對人工智慧可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏。社會公眾對人工智慧的想像在很大程度上仍被科幻小說和影視作品所主導,而對於人工智慧在未來可能產生的影響,更是缺乏認知和關切。在政策層面,對於人工智慧的關注很大程度上仍集中於技術和經濟層面,缺乏整體性的思考和討論。儘管有少數哲學和社科領域的學者開始關注人工智慧帶來的倫理問題和社會挑戰,但這些討論並未進入公共政策視界,而且討論的重點也多集中在超級人工智慧這樣仍相對遙遠的議題上。

報告認為,在人工智慧問題上,圍繞可能出現的挑戰,無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。

人工智慧會帶來哪些倫理挑戰

從人文視角來看,人工智慧帶來了一些有可能撼動社會基礎的根本性問題

中國發展研究基金會副理事長兼秘書長盧邁表示,人工智慧發展將進一步釋放社會活力,中國應積極擁抱人工智慧,充分利用好它對生產力的解放效應。但是,把握機遇的前提是了解並預防風險,這需要我們在倫理學和社會治理上下功夫。

中國發展研究基金會秘書長助理、研究一部主任俞建拖認為,社會應該正視人工智慧帶來的挑戰,並超越純技術和經濟的視角,從社會和人文視角去探討人工智慧帶來的影響。

報告認為,從人文視角來看,人工智慧帶來了一些已經在發生或即將發生、有可能撼動我們社會基礎的根本性問題。

隨著人工智慧的不斷發展,我們對於人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的後果。我們該如何對待機器和自身的關係?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那麼,人還有參與社會互動的需要和動力嗎?

人工智慧還帶來了新的社會權力結構問題。藉助人工智慧,企業可以賦予每個用戶大量的數據標籤,並基於這些標籤了解人的偏好和行為,甚至超過用戶對自己的了解,這是巨大的權利不對稱。

此外,人工智慧可能會造成偏見強化。在社交媒體中,人工智慧將觀點相近的人相互推薦,新聞推送也常常存在路徑依賴。當人們的信息來源越來越依賴於智能機器,偏見會在這種同化和路徑依賴中被強化。

人工智慧還使社會的信息和知識加工處理能力被極大放大,信息和知識的冗餘反而使人陷入選擇困境。如果人參與社會互動的次數和範圍縮小,而人工智慧越來越多介入到知識的生產中,知識與人的需求之間的關係將變得越來越間接,甚至會反過來支配人的需求。

儘管人工智慧也會推動進一步的專業化分工和創造新的工作機會,但並非所有人都有能力邁過技術性和社會性壁壘。尤瓦爾·赫拉利在《未來簡史》中警告,未來社會可能會出現「無用階級」,這種擔心並非全無道理。

人工智慧也對傳統的法律法規和社會規範提出了挑戰。譬如,無人駕駛汽車一旦出現事故,我們究竟該歸因於開發產品的企業、產品擁有者還是人工智慧產品本身?

如何構建人工智慧的倫理規範

考慮到人工智慧的深遠影響,需要全社會共同努力,制定開發和應用的倫理規範和政策方向

人工智慧正幫助人類社會向充滿不確定性的未來疾馳。在衝進未知之門之前,需要給它裝上剎車,讓它真正能行穩致遠,這個剎車就是倫理規範和公共政策準則。

當前,已經有一些人工智慧領先企業關注人工智慧開發和應用的倫理問題。微軟公司總裁施博德表示,要設計出可信賴的人工智慧,必須採取體現道德原則的解決方案,因此微軟提出6個道德基本準則:公平、包容、透明、負責、可靠與安全、隱私與保密。谷歌公司也表示,在人工智慧開發應用中,堅持包括公平、安全、透明、隱私保護在內的7個準則,並明確列出了谷歌「不會追求的AI應用」。

報告認為,這些企業的前瞻性探索十分重要。但是,考慮到人工智慧對未來社會的深遠影響,還需要全社會和各國政府的共同努力,制定人工智慧開發和應用的倫理規範和政策方向,為其未來健康發展奠定基礎。

為此,報告提出了一系列建議:在社會層面,高校和研究機構開展前瞻性科技倫理研究,為相關規範和制度的建立提供理論支撐;各國政府、產業界、研究人員、民間組織和其他利益攸關方展開廣泛對話和持續合作,通過一套切實可行的指導原則,鼓勵發展以人為本的人工智慧;人工智慧企業應該將倫理考量納入企業社會責任框架中;投資機構應將倫理問題納入ESG(環境、社會和治理)框架,引導企業進行負責任的人工智慧產品開發;社會組織可以通過培訓、發布倫理評估報告、總結代表性案例等方式,推動人工智慧倫理規範的構建。

報告建議,在公共政策層面,人工智慧研發和應用的政策應該將人置於核心,滿足人全面發展的需求,促進社會的公平和可持續發展;政府需要設立專項資金,支持大學和研究機構開展人工智慧等前沿科技的倫理研究;政府還需要給予不同人群以學習了解人工智慧的機會,推動全社會對人工智慧的知識普及和公共政策討論;優先鼓勵人工智慧應用於解決社會領域的突出挑戰,包括減少貧困和不平等,促進弱勢群體融入社會並參與社會發展進程;應組建由政府部門和行業專家組成的人工智慧倫理委員會,對人工智慧的開發和應用提供倫理指引,並對具有重大公共影響的人工智慧產品進行倫理與合法性評估。

此外,對於人工智慧的規範發展也需要更廣泛的國際合作。清華大學公共管理學院院長薛瀾表示,「人工智慧的發展將在創新治理、可持續發展和全球安全合作3個方面對現行國際秩序產生深刻影響,需要各國政府與社會各界從人類命運共同體的高度予以關切和回應。只有加強各國之間的合作與交流,才可能真正構建起一套全球性的、共建共享、安全高效、持續發展的人工智慧治理新秩序」。

報告也建議,各國政府應促進數據共享技術,為人工智慧培訓和測試提供共享的公共數據集。在個人信息得到保護的前提下,促進數據的自由流通;並加強國際合作,建立多層次的國際人工智慧治理機制。各國政府應通過聯合國、G20以及其他國際平臺,將人工智慧發展納入國際合作議程,利用人工智慧推動聯合國2030年可持續發展目標的實現。(袁 勇)

(責編:龔霏菲、王珩)

相關焦點

  • 人工智慧倫理問題的時代鏡像與調適
    另外,在日常生產生活領域,人工智慧在增強人類能力的同時,也日益凸顯出其對於人類自身解放的重要作用。機遇與挑戰並存,人工智慧發展在取得巨大成就的同時,也面臨著嚴峻的倫理挑戰。從人與技術的關係來說,人工智慧在一定程度上威脅著人的主體性。控制論之父維納就曾預言:「這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。」
  • 人工智慧的倫理挑戰
    原標題:人工智慧的倫理挑戰   控制論之父維納在他的名著《人有人的用處》中曾在談到自動化技術和智能機器之後,得出了一個危言聳聽的結論:「這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對我們的生活產生深遠影響。」維納的這句讖語,在今天未必成為現實,但已經成為諸多文學和影視作品中的題材。
  • 人工智慧或衝擊法律規範道德倫理 你會愛上機器人嗎
    原標題:你會愛上機器人嗎(關注·「三問人工智慧」③) 近來,美國一家公司生產的超仿真機器人Sophia在電視節目上與人類對答如流,成為「網紅」機器人。對話中,Sophia流露出的喜悅、驚奇、厭惡等表情真實得令人讚嘆,網友驚呼:快和真人分不清了! 技術往往是一把雙刃劍。
  • 人工智慧,以法律和倫理為界
    通過對人工智慧相關法律、倫理和社會問題的深入探討,為智能社會劃出法律和倫理道德的邊界,讓人工智慧服務人類社會  得益於中國在網際網路、大數據、雲計算等領域的卓著進步,人工智慧在國內發展迅猛。8月23日,以「創新創業創造,迎接智能社會」為主題的2017世界機器人大會,在北京亦創國際會展中心正式開幕。
  • 人工智慧導致的倫理衝突與倫理規制
    人工智慧的應用範圍極其廣闊,人形智慧機器人正在解構傳統的人倫關係,數據搜集和分析、智能機器取代人工作正在引發各種倫理衝突,智能駕駛、虛擬實境正在帶來各種倫理難題。我們必須立足時代和社會的重大變遷,對人工智慧進行理智的價值評估,對人工智慧的研發和應用進行有效的倫理規制。
  • 人工智慧介入基因科學帶來哪些倫理挑戰
    因此,科學家一直不遺餘力地尋找基因和疾病的對應關係,人工智慧通過出色的機器學習能力加速了這一進程,推動形成相應的治療或檢測技術。目前,在預防性篩查方面已經基本實現了人工智慧、基因檢測和深度檢查的結合,而且人工智慧的日益普及正讓這種深度檢查價格迅速下降。
  • 讓機器理解社會倫理
    他們在《道德機器:如何讓機器人明辨是非》中指出,不要把責任推給機器,「我們必須更加堅守人類的價值觀和倫理」。我們置身於一個豐富多彩的世界,也生活在一個困惑和焦慮的時代。「人類決策者會因為沒有掌握全部相關信息或沒有考慮到所有偶發事件而做出糟糕的選擇,所以也許只有在一場未預料到的災難發生之後,人類才會發現他們所依賴的(軟硬體)機器人的不完善。」
  • 中國社科院舉辦「人工智慧的社會、倫理與未來研究」研討會
    隨著推理、社會機器人進入家庭,如何保護隱私、滿足個性都要以人為中心而不是以機器為中心設計。過度依賴社會機器人將帶來一系列的家庭倫理問題。為了避免人工智慧以機器為中心,需要法律和倫理研究參與其中,而相關倫理與哲學研究也要對技術有必要的了解。
  • 人民日報人民時評:人工智慧,以法律和倫理為界
    通過對人工智慧相關法律、倫理和社會問題的深入探討,為智能社會劃出法律和倫理道德的邊界,讓人工智慧服務人類社會      得益於中國在網際網路、大數據、雲計算等領域的卓著進步,人工智慧在國內發展迅猛。
  • 劉復興|教育與機器的關係
    所有這些已經出現或者可能出現的變化,會如何影響我們關於教育本質、人的發展本質、社會發展本質的認識,也是一個需要認真回答的問題。但是需要指出,儘管在人工智慧時代機器開始具有主體的意義,人的主體地位與機器的地位還是有根本的不同,機器的教育和人的教育也會有本質的區別。這是我們討論教育與機器關係問題的一個出發點。
  • 劉復興 | 教育與機器的關係
    人與具有自我意識、自主學習能力的智能機器之間互為主體、互為客體甚至合為一體的社會關係會更為複雜。與之前的作為絕對客體的工具相比,智能機器及其發展會成為一種前所未有的動力,推動人與社會不斷豐富和發展自身的本質內涵。所有這些已經出現或者可能出現的變化,會如何影響我們關於教育本質、人的發展本質、社會發展本質的認識,也是一個需要認真回答的問題。
  • 人工智慧時代的新聞倫理
    在此間所產生的媒體與國家的關係、媒體與社會的關係、媒體與個體的關係,也是新聞倫理的核心焦點。社交媒體和智能推薦算法的結合,改變了受眾獲得信息的主要渠道和接受模式,傳統媒體的議程設置功能受到較大衝擊,部分媒體開始被迫跟隨社交媒體表達模式改變自身的新聞生產方式。
  • 第二屆智能社會科學論壇暨「人工智慧的治理與倫理」學術研討會...
    他從人工智慧的邏輯、人工智慧引發的法律秩序變化以及司法智能治理的規則體系等三個方面系統探討了司法人工智慧的開發實踐。他詳細分析了智能算法對於法律秩序和司法實踐所帶來的具體衝擊和問題,並對數據治理和人工智慧治理的發展進行了探討與展望。  上海社會科學院哲學研究所副所長成素梅教授作了題為「智能革命時代的五大倫理挑戰」的演講。
  • 「人工智慧+教育」應融入倫理道德課
    在本屆世界人工智慧大會上備受關注的馬雲、馬斯克「雙馬對話」,部分話題也帶出了人工智慧倫理的雙重考問。在「機器比人聰明,還是人更聰明」爭議背後,再延續的推理就是「人會不會被機器人代替甚至控制」的隱憂。近日人們對ZAO換臉軟體的爭議,則暴露出對人工智慧應用下的隱私的擔心。
  • 美科學家:當人工智慧遇上倫理道德
    原標題:當人工智慧遇上倫理道德 1949年籤訂的戰爭人道主義《日內瓦公約》要求任何襲擊需要滿足3個條件:軍事必需、參與戰爭者和非參戰者差別對待、軍事目標價值及其潛在附帶傷害的平衡。而當前的自動武器很難或根本無法作出這些主觀判斷。   作為一個人工智慧專家,我曾被要求為特定常規武器公約(CCW)第三次重要會議提供專業證據。
  • 人工智慧讓人類尷尬:倫理道德法律框架設計滯後
    在近日召開的「人工智慧的技術、倫理與法律的關鍵科學問題」的香山科學會議上,中科院科技戰略諮詢研究院研究員李真真舉索菲亞的例子,是想提出一個問題:在技術高歌猛進的同時,人工智慧不斷模糊著物理世界和個人的界限,不斷刷新人的認知和社會關係,延伸出複雜的倫理、法律和安全問題,但相應的規範和制度設計還存在盲區,這是一個極大的挑戰。
  • 「管理科學」人工智慧體引發的倫理困境
    1.人工智慧技術概述人工智慧即AI,是一種可被應用於各個領域中的模擬人的機器,極大程度地推進了社會進步和經濟發展。當前,人工智慧技術被廣泛應用在醫學、地質、化學和電子學領域。基於人工智慧的特點和性能,可以將其分為弱人工智慧和強人工智慧2種。
  • 人工智慧引發倫理問題,科技巨頭成立倫理委員會
    本文屬於本次Emtech Digital人工智慧峰會獨家精選隨著人工智慧的發展,機器承擔著越來越多(來自人類)的決策任務,這也引發了許多關於社會公平、倫理道德的新問題。俗話說:權利越大,責任越大。人工智慧技術正變得越來越強大,那些最早開發和部署機器學習、人工智慧的企業現在也開始公開討論其創造的智能機器給倫理道德帶來的挑戰。在《麻省理工科技評論》的EmTech峰會上,微軟研究院的常務董事埃裡克·霍維茨(Eric Horvitz)說:「我們正處於人工智慧的轉折點,人工智慧理應受到人類道德的約束和保護。」
  • 智庫論壇|人工智慧的若干倫理問題
    李增軍 李夢陽習近平總書記在中央政治局就人工智慧發展現狀和趨勢進行集體學習時指出:「要整合多學科力量, 加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德。」人工智慧的發展深刻影響了世界經濟、政治、社會和軍事的變革,極大地推動人類的發展和進步。
  • 如何讓機器人明辨是非:人工智慧未來的道德走向
    活動主講嘉賓是《道德機器:如何讓機器人明辨是非》的作者之一溫德爾·瓦拉赫(Wendell Wallach)。中國社會科學院研究員劉鋼、西安交通大學計算哲學實驗室中方主任王小紅也出席了活動。瓦拉赫是享有國際聲譽的人工智慧和神經科學倫理學領域的專家。