來源:第一財經
人工智慧產業發展中 的ESG思考
作者: 孫明春
近年來,隨著人工智慧技術在軟硬體領域取得重要突破,人工智慧產業在全球快速發展。人工智慧技術在給人類帶來效率提升、福利改善的同時,也帶來諸多挑戰,例如衝擊就業、加劇不平等、侵犯個人隱私、濫用數據等,甚至令人類深陷道德和倫理困境。因此,在人工智慧技術發展的早期階段,需高度重視相關議題,做前瞻性規劃,致力發展「以人為本」的人工智慧,令技術進步服務於公眾福祉的改善和人類社會的可持續發展。
在全球範圍內,國際組織(如聯合國教科文組織等)、各國政府和監管機構、學術界和企業界紛紛推出關於人工智慧道德規範和倫理標準的指引與倡議。中國政府也發布了《新一代人工智慧治理原則——發展負責任的人工智慧》《人工智慧倫理風險分析報告》等報告,以應對人工智慧技術應用中可能存在的風險隱患。雖然各界已就人工智慧倫理原則的重要性達成共識,但具體法規、政策的制定仍處於研究探索階段。
發展「以人為本」的人工智慧是全社會的課題,需要政府、商界、學界及所有利益相關方共擔責任,協力推動。作為技術應用與推廣的主體,企業負有不可推卸的社會責任。特別是在現階段相關法律法規尚不健全的情況下,企業的自律自治尤為重要。
企業應將ESG理念融入人工智慧技術的研究、開發和應用的各個環節,識別其中的環境(E)、社會(S)和公司治理(G)方面的風險與機遇,建立相關的政策、制度和措施,確保技術向善。
在環境領域(E),一方面,人工智慧技術可通過改善氣候數據模型、提高交通效率、優化能源使用、創新低碳材料等多方面幫助人類治理汙染和應對氣候變化;另一方面,應用人工智慧技術將產生大量電子廢料,增加能源消耗,給環境帶來壓力。雖然人工智慧技術的發展對環境的整體影響尚未有定論,但企業應秉持綠色發展理念,趨利避害,儘可能推動人工智慧技術的綠色應用,降低其對環境的負面影響。
在社會領域(S),人工智慧技術的廣泛應用有可能引發失業、隱私洩露、偏見和歧視、安全隱患、道德倫理失範等社會問題。例如,人工智慧技術將令部分人力工作被自動化取代,使部分勞動者面臨永久性失業,加劇貧富差距;人工智慧技術的應用可能加深對性別、種族、民族、宗教、健康狀況等方面的歧視性待遇,加劇社會不平等;人工智慧的發展還給系統安全、數據安全、技術安全帶來新挑戰。人工智慧的高度發展還將涉及更深層次的倫理問題,比如高度智能的機器人背離設計初衷對人類造成危害、人體植入晶片和腦機接口等涉及到的人體實驗技術的潛在風險和倫理悖論等。為降低隱患,作為設計者,企業應將「安全可控」作為人工智慧技術研發和設計的首要原則;作為使用者,企業有責任了解人工智慧技術應用中存在的各類安全隱患,審慎評估並慎重選用人工智慧技術。
在公司治理領域(G),面對人工智慧技術帶來的就業、隱私保護、安全、倫理及環境等各方面挑戰,企業應將以上問題納入公司治理框架(如在董事會層面設立「人工智慧倫理委員會」等),評估潛在風險,及時採取應對措施,確保人工智慧技術和應用「以人為本」。
(作者系海通國際首席經濟學家)