來源:第一財經
原標題:孫明春:人工智慧技術發展中的倫理規範與行業自律丨明言ESG
各國政府、國際組織、學術機構和企業界都積極參與相關倫理標準的討論和制定,確保人工智慧技術發展「以人為本」、技術向善。
隨著人工智慧(AI)技術的快速發展和廣泛應用,與之相關的倫理問題越發得到各界重視。各國政府、國際組織、學術機構和企業界都積極參與相關倫理標準的討論和制定,確保人工智慧技術發展「以人為本」、技術向善。
聯合國是推動建立全球AI倫理規範的重要力量。2019年,聯合國教科文組織啟動了全球AI倫理建議書的撰寫,並於2020年9月完成草案,提交193個會員國協商,預計將於2021年末發布。聯合國教科文組織還於2017年聯同世界科學知識與技術倫理委員會發布了《機器人倫理報告》。經合組織(OECD)也高度重視AI準則的制定,於2019年5月發布首套政府間人工智慧政策指南《OECD人工智慧原則》,共42個國家籤署,隨後也被G20採納。
各國政府也積極推進AI倫理標準的制定。目前,全球已有28個國家發布了有關人工智慧的國家戰略及政策,而倫理問題是各國政策的重要領域之一。美國在2019年修訂了《國家人工智慧研究與發展戰略計劃》,提出包括應對倫理、法律和社會影響、確保人工智慧系統安全等八項戰略重點。歐盟在2019年4月發布了《可信賴的AI倫理指南》,並在2020年2月發布《人工智慧白皮書》,將倫理監管作為重要政策目標。2020年10月,歐洲議會通過了三項有關監管人工智慧的立法倡議,以更好地平衡技術創新和社會治理的關係。
與此同時,行業組織、學術機構和企業界也提出了相關倡議。國際化標準化組織(ISO)於2017年成立人工智慧委員會,負責涵蓋算法偏見、隱私保護等領域的標準研製工作。電氣和電子工程師協會(IEEE)在2017年提出了「人權、福祉、問責、透明、慎用」的五項原則,已成為國際上最具影響的AI倫理原則之一。在學術界,牛津大學、劍橋大學和Open AI公司等7家機構於2018年共同發布《人工智慧的惡意使用:預測、預防和緩解》,分析了人工智慧可能帶來的安全威脅並提出應對建議。在企業界,微軟、谷歌、IBM等科技企業制定了人工智慧開發的倫理原則,臉書也在2019年初聯合慕尼黑工業大學建立了AI倫理研究所。
中國政府高度重視人工智慧產業發展中的倫理問題。2017年7月,國務院在《新一代人工智慧發展規劃》中提出,要「制定促進人工智慧發展的法律法規和倫理規範;開展人工智慧行為科學和倫理等問題研究;制定人工智慧產品研發設計人員的道德規範和行為守則」。2019年2月,國家新一代人工智慧治理專業委員會成立,並於6月發布了《新一代人工智慧治理原則——發展負責任的人工智慧》,旨在「更好地協調發展與治理的關係,確保人工智慧安全可靠可控,推動經濟、社會及生態可持續發展」。同年4月,國家人工智慧標準化總體組發布了《人工智慧倫理風險分析報告》,提出「人類根本利益原則」和「責任原則」。
中國的學界和企業界也積極關注AI倫理問題。2019年5月,由科技部和北京市政府指導成立的北京智源人工智慧研究院成立了人工智慧倫理與安全研究中心,並聯合北大、清華、中科院、新一代人工智慧產業技術創新戰略聯盟(發起成員包括百度、阿里、騰訊、華為等)和其他學術機構及產業組織共同發布《人工智慧北京共識》,提出了人工智慧研發、使用和治理應遵循的「有益於人類命運共同體的構建和社會發展」的15條原則。2019年8月,深圳人工智慧行業協會與曠視科技、科大訊飛等數十家企業聯合發布《新一代人工智慧行業自律公約》。百度、騰訊等主要科技企業也提出了企業自身的AI倫理準則;曠視科技還在制定準則的基礎上,成立了人工智慧道德委員會,以推動「可持續、負責任、有價值的人工智慧生態」。
(作者系海通國際首席經濟學家)