貴大教授李傳兵:防控倫理道德風險 保障人工智慧健康發展

2020-12-10 新浪財經

來源:人民日報

原標題:保障人工智慧健康發展(學苑論衡)

李傳兵(作者為貴州大學馬克思主義學院教授)

人工智慧作為一種具有代表性的顛覆性技術,正在釋放科技革命和產業變革積蓄的巨大能量,深刻改變著人類生產生活方式和思維方式。習近平總書記強調:「要整合多學科力量,加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德。」保障人工智慧健康發展,需要採取合理有效的舉措,防範人工智慧技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。

人工智慧發展存在倫理道德風險。在新一輪科技革命和產業變革中,人工智慧是一項戰略性技術,具有很強的「頭雁效應」,在有力推動經濟社會發展的同時,也帶來一系列風險與挑戰。其中,倫理道德風險是一個重要方面。實際上,伴隨人工智慧技術的發展,關於其可能誘發倫理道德風險的討論從未停止。有人擔憂,資訊時代,人工智慧創造物已不僅僅是技術化的工具,而是越來越具有類似於人類思維的能力,甚至在某些方面具有超越人類思維的能力。人工智慧發展到一定程度,有可能威脅人類思維主體地位。也有觀點認為,人工智慧應用存在隱私洩露的倫理風險。人工智慧應用需要以海量信息數據作支撐,正是由於大數據的使用、算力的提高和算法的突破,人工智慧才得以快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等特徵。人工智慧越「智能」,就越需要獲取、存儲、分析更多的信息數據。在這一過程中,涉及個人隱私的信息,如個人身份信息數據、網絡行為軌跡數據以及對數據處理分析形成的偏好信息、預測信息等,往往以數據的形式被存儲、複製、傳播。獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一倫理問題。如果缺乏倫理道德規範,就有可能誘發隱私洩露的倫理道德風險。此外,隨著人工智慧自主性的提高,人工智慧侵權責任中的因果關係、過錯等要件的判斷日趨複雜,人工智慧應用的權利責任歸屬問題也被廣泛關注和討論。

增強人工智慧倫理道德風險防控意識。人工智慧之所以存在倫理道德風險,究其主要原因,一方面是這一技術還不夠完善;另一方面是目前人工智慧健康發展的倫理道德保障機制仍然不夠健全,同快速發展的人工智慧技術相比,與之相關的倫理道德規章制度發展相對滯後。解決這些問題,一項基礎性工作是增強人工智慧倫理道德風險防控意識。目前,在一些地方和領域,公眾對人工智慧可能誘發的倫理道德風險重視程度還不夠高。增強人工智慧倫理道德風險防控意識是一項系統工程,涉及科技研發、應用各環節。在科技研發環節,重在完善人工智慧從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水平,引導研發人員增強風險防控意識,嚴守科技倫理底線,強化倫理責任。在研發初始環節,尤須增強道德風險防控意識,預測和評估人工智慧產品可能引發的道德危害,從設計源頭進行規範。進而將這種倫理意識貫穿於研發全過程,防止人工智慧被非法利用進而危害社會,確保科技研發活動始終在倫理道德的軌道上平穩運行。在應用環節,同樣需要繃緊倫理道德風險防控這根弦,在全社會加強涉及人工智慧的倫理道德教育,普及與人工智慧相關的法律法規知識,引導社會公眾以正確的價值觀念看待和運用人工智慧技術,在享受其帶來的便利的同時,對其中的倫理道德風險始終保持高度警惕,推動全社會共同參與科技倫理治理。

依靠制度確保人工智慧安全可控可靠。將人工智慧可能誘發的倫理道德風險降到最低,保障人工智慧健康發展,必須根據人工智慧發展實際,針對其可能帶來的倫理道德風險,不斷完善指導和規範人工智慧發展的倫理道德原則。在此基礎上,建立健全相關制度體系,從而及時發現、有效解決人工智慧技術發展中的各類倫理道德問題,確保人工智慧安全可控可靠。2019年6月,國家新一代人工智慧治理專業委員會發布《新一代人工智慧治理原則——發展負責任的人工智慧》,對促進新一代人工智慧健康發展,加強人工智慧法律、倫理、社會問題研究提出明確要求。依靠制度建設,防範和化解人工智慧可能帶來的倫理道德風險,需要相關從業人員大力弘揚社會主義核心價值觀,在技術開發和應用過程中,嚴格遵守標準、流程等方面的規定,充分尊重和保護個人隱私,保障個人的知情權和選擇權。不斷加強人工智慧的倫理道德監管,在相關法律法規中,進一步強化隱私權保護,充分保障公民在人工智慧應用中的知情權和選擇權。嚴格規範人工智慧應用中個人信息的收集、存儲、處理、使用等程序,嚴禁竊取、篡改、洩露和其他非法收集利用個人信息的行為,確保人工智慧朝著對全人類、全社會及自然生態有益的方向發展,更好為經濟社會發展和人民美好生活服務。

相關焦點

  • 防範倫理道德風險 保障人工智慧健康發展
    保障人工智慧健康發展,需要採取合理有效的舉措,防範人工智慧技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。 人工智慧發展存在倫理道德風險。在新一輪科技革命和產業變革中,人工智慧是一項戰略性技術,具有很強的「頭雁效應」,在有力推動經濟社會發展的同時,也帶來一系列風險與挑戰。其中,倫理道德風險是一個重要方面。
  • 李傳兵:增強人工智慧倫理道德風險防控意識
    摘編自《經濟日報》  【李傳兵:增強人工智慧倫理道德風險防控意識】  貴州大學馬克思主義學院教授李傳兵表示,人工智慧獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一倫理問題。如果缺乏倫理道德規範,就有可能誘發隱私洩露的倫理道德風險。
  • 專訪貴大教授李傳兵:《偉大的轉折》激勵青年走好新時代長徵路
    專訪貴大教授李傳兵:《偉大的轉折》激勵青年走好新時代長徵路 發布時間:2019-08-30 16:04:54      來源:多彩貴州網
  • 探索構建治理框架推動人工智慧健康發展
    應重視潛在倫理和法律風險為做好此次會議籌備工作,2020年9月至10月,全國政協專門赴安徽、江蘇、北京開展4次調研。在調研過程中,專題調研組了解到,我國人工智慧發展勢頭迅猛,但發展機遇與風險並存,對人類社會發展也可能帶來重大風險和潛在威脅。
  • 人工智慧列國志|歐盟:技術發展激勵與倫理道德監管雙管齊下
    澎湃新聞特此整理各國人工智慧發展現狀,希望能為讀者呈現較為全面而深入的人工智慧發展圖景。今日推出人工智慧列國志之歐盟篇。歐盟在持續激勵人工智慧技術發展、人才培養的同時,還注重對人工智慧領域相關倫理道德問題的探討。
  • 人工智慧倫理道德規範徵求意見:應向用戶提供拒絕機制
    人工智慧倫理道德規範徵求意見:應向用戶提供拒絕機制人臉識別因應用在進小區、動物園、商場等場景備受爭議,最新徵求意見的人工智慧倫理道德規範指引似乎可以給出答案。據全國信息安全標準化技術委員會官網11月9日消息,全國信息安全標準化技術委員會秘書處編制了《網絡安全標準實踐指南—人工智慧倫理道德規範指引(徵求意見稿)》公開徵求意見。針對可能產生的人工智慧倫理道德問題,該徵求意見稿給出了安全風險警示、提出了開展人工智慧研究開發、設計製造、部署應用等相關活動的規範指引。
  • 美科學家:當人工智慧遇上倫理道德
    原標題:當人工智慧遇上倫理道德   在近日發表於《自然》雜誌上的一篇評論文章中,4位相關領域的研究領軍者分享了他們對智能機器社會風險的擔憂和解決方案。   美國加州大學伯克利分校的計算機科學教授Stuart Russell認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,「這不是我們所夢想的未來場景」。
  • 「管理科學」人工智慧體引發的倫理困境
    倫理和道德都是較為複雜的概念,其內涵也極為豐富,所以確保人工智慧的算法符合倫理道德標準也是一項複雜的社會工程。這份工作的開展,不僅需要人工智慧領域研究人員的努力,更需要整合社會各行業的專業資源,只有依託於跨學科的協作研究才能有效完成。而構建人工智慧道德體系的根本目的,就是為人工智慧嵌入人類價值,進而提高他們的環境適應性和行為道德性,讓人工智慧的行為合乎人類社會的倫理道德,避免引發倫理問題。
  • 人工智慧讓人類尷尬:倫理道德法律框架設計滯後
    倫理道德法律框架設計滯後  人工智慧火了,人類有些尷尬了  索菲亞不是人,她只是個很聰明的機器人;索菲亞又是「人」,不久前,她被沙特授予公民身份,加入人類籍。  「我國的人工智慧技術可謂與世界發達國家『同步』,但倫理和法律研究則嚴重滯後,這種『缺位』會制約我們未來的發展。」李真真說。  為構建一個人工智慧健康發展的倫理和法律環境,來自自然科學、人文社會科學領域的專家學者和產業界人士聚集在一起,嘗試跨越學科的鴻溝,尋找共同的交集,研討人工智慧最基本的問題。  人工智慧很牛嗎?
  • 歐盟:技術發展激勵與倫理道德監管雙管齊下
    原標題:人工智慧列國志|歐盟:技術發展激勵與倫理道德監管雙管齊下來源:澎湃新聞編者按:2020世界人工智慧大會將於7月9日至7月11日舉行。歐盟在持續激勵人工智慧技術發展、人才培養的同時,還注重對人工智慧領域相關倫理道德問題的探討。歐盟委員會於2020年2月19日發布的《人工智慧白皮書》指出,歐洲的人工智慧戰略旨在提高AI領域的創新能力,同時促進道德、可信賴AI技術在歐洲經濟領域的應用。
  • 人工智慧倫理問題的時代鏡像與調適
    人工智慧技術自一出現,便伴隨著倫理爭議和道德評判。正因為人工智慧發展前景的不確定性,及其可能導致的倫理後果難以預測,人們對人工智慧問題爭議不斷。作為一種具有顛覆傳統、重塑未來強大力量的技術,人工智慧所帶來的倫理問題已引起學界的廣泛關注。
  • 人工智慧時代的新聞倫理
    目前有兩種倫理風險已經引起廣泛的關注:數據安全和算法偏見。二、人工智慧時代新聞倫理的道德行動者1、政府:倫理治理的規則制定者與底線管控者變革性技術總是同時帶來正面和負面效應,人類也逐漸摸索出一套技術控制模式。
  • 中國社科院舉辦「人工智慧的社會、倫理與未來研究」研討會
    僅從科學和技術的角度研究人工智慧還不夠,還需要引入哲學、社會學、倫理和未來研究等方面的研究,非常支持在自然辯證法研究會下建立一個專業委員會,在這個旗幟下,把工作做細、做深、做透,研究更為廣泛深入系統。在人工智慧快速發展過程中,對其社會和未來影響,要有倫理和哲學的關注,應與科技哲學密切結合,以促使人工智慧的發展更為健康。
  • 上海交通大學科學史與科學文化研究院舉辦「人工智慧、倫理與文化...
    ,藉此契機探討新時代以科技史、科學技術哲學、科技倫理等為代表的新文科的發展趨勢。尚智叢教授:人工智慧的道德困境尚智叢教授以人工智慧到底能否解決道德問題為開端。機器在運行中必然存在著道德規範,而規範設計來自人工智慧背後的編寫者。那麼到底預設怎樣的道德?倫理學家進行多方討論,宗教道德難以應用,世俗標準成為選擇。如果出現問題,即使用功利主義標準,那麼大多數該如何定義?不同的歷史階段基於其發展而不同,目前是限定在群體價值上,而現在所追求的普世價值,其實就是限定群體價值。因此,當談論人工智慧道德是什麼的時候,其實是將程序編寫者都認可的道德寫入人工智慧。
  • 「人工智慧+教育」應融入倫理道德課
    2019世界人工智慧大會閉幕了,眾多高端論壇中,有一個小細節令人印象深刻。在開幕當天的「教育行業主題論壇」上,上海市教育部門聯合科大訊飛等16家企業,現場籤署了一份《人工智慧助力教育健康發展倡議書》,呼籲各方共同建立起「人工智慧+教育」的行為規範。
  • 人工智慧導致的倫理衝突與倫理規制
    作者簡介:孫偉平,上海大學社會科學學部教授。上海200444原發信息:《教學與研究》第20188期內容提要:人工智慧是一種遠未成熟的革命性、顛覆性技術,可能導致的倫理道德後果尚難準確預料。人工智慧的應用範圍極其廣闊,人形智慧機器人正在解構傳統的人倫關係,數據搜集和分析、智能機器取代人工作正在引發各種倫理衝突,智能駕駛、虛擬實境正在帶來各種倫理難題。我們必須立足時代和社會的重大變遷,對人工智慧進行理智的價值評估,對人工智慧的研發和應用進行有效的倫理規制。
  • 科學家:須建立「道德和倫理委員會」掌控人工智慧
    科學家:須建立「道德和倫理委員會」掌控人工智慧 2016-03-23 13:12:20許薇薇 攝   中新網雪梨3月23日電(許薇薇)雪梨大學兩位機器學習專家在此間發出警告:必須建立「道德和倫理委員會」來保持掌控人工智慧,否則我們可能會變得無力抵抗。  雪梨大學電氣工程與信息工程學院計算機工程徐東教授說,近日世界圍棋賽冠軍在人機大戰中的慘敗,重新引發了人們對人工智慧(AI)設備未來會扮演何種角色的擔憂。
  • 人人皆可換臉 眼見不再為真:人工智慧安全如何保障?
    12月23日在十三屆全國政協第45次雙周協商座談會上,委員和專家們圍繞「人工智慧發展中的科技倫理與法律問題」進行協商議政,認為人工智慧技術具有廣泛滲透性和顛覆性,帶來的科技倫理與法律問題更加複雜多元,可能引發潛在倫理和法律風險,需要引起高度重視。人工智慧安全問題再度引發關注。
  • 英國版「人工智慧準則」有望確立:必須把倫理道德置於核心位置
    英國版「人工智慧準則」有望確立:必須把倫理道德置於核心位置 2018年04月23日 10:36作者:科普中國網編輯:網絡 英國版「人工智慧準則」有望確立:必須把倫理道德置於核心位置 據英國議會官網消息,上議院人工智慧特別委員會16日發布報告說,在發展和應用人工智慧(AI)的過程中,必須把倫理道德置於核心位置,以確保這項技術更好地造福人類。
  • 第二屆智能社會科學論壇暨「人工智慧的治理與倫理」學術研討會...
    在主旨演講環節,清華大學智能社會治理研究院院長蘇竣教授作了題為「智能社會的風險、脆弱性與社會實驗」的演講。他從智能社會的風險與不確定性、人工智慧的社會風險、建設有溫度的智能社會三個方面介紹了智能社會對人類社會所產生的影響,並對人工智慧社會實驗的基本原理與研究進展進行了詳細介紹。他提出,學術界應開展積極有效的學術研究和交流,倡導建立有人文溫度的智能社會,推進智能社會的精神文明建設。