李增軍 李夢陽
習近平總書記在中央政治局就人工智慧發展現狀和趨勢進行集體學習時指出:「要整合多學科力量, 加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德。」人工智慧的發展深刻影響了世界經濟、政治、社會和軍事的變革,極大地推動人類的發展和進步。與此同時,人工智慧給人類社會帶來的倫理問題和安全問題也引起了世界範圍的關注,霍金等科學家認為,人類需要敬畏人工智慧的崛起,人工智慧是人類生存的最大威脅,甚至可能導致人類滅亡。我們認為,問題未必有如此嚴重,但保持高度警惕、未雨綢繆是完全必要的。
當前,人工智慧發展中人們已經看到和即將感受到的倫理問題至少涉及八個方面。
一、人工智慧的崗位替代作用深刻影響著人類的就業安全
每一次技術革命的到來,都會給人類的就業帶來衝擊。凱恩斯曾經說過:「一種新的疾病在折磨著我們,這種疾病是由技術進步導致的失業,即所謂『技術性的失業』。」人工智慧革命對人類就業的衝擊,同歷史上任何一次技術革命相比,範圍更廣、層次更深、影響更大。我們必須面對的事實是, 人工智慧已經、正在和將要在許多領域就業崗位上替代人類勞動。富士康因為人工智慧的導入,已經有非常多的生產線和工廠實現了自動化,不需要人,甚至不需要開燈。僅在崑山工廠,富士康就減員6萬員工。麻省理工學院發布研究報告稱,過去20年,美國有36萬-67萬工作崗位被機器人奪走,未來10年, 還將有350萬個崗位被人工智慧替代。中國工程院院士鄔賀銓表示, 人工智慧會部分取代現在的就業, 49%的勞動人口可能會被取代。近幾年來,人工智慧領域一大批科技成果集體亮相,諸如無人超市,微笑還能享受打折的優惠;微醫健康通,使患者在家就能看名醫;唇語識別,可以用眼睛聽你說話;而一個小小的翻譯蛋,即可替代翻譯、掃除語言障礙;能算帳的財務機器人;會哄娃娃的教育機器人。此外還有,智慧法院(智慧機器人導訴)、智慧泊車、智醫助理、機器人撰寫新聞稿、能擊敗人類棋手的AlphaGo、骨科手術機器人等等。人工智慧不僅可以替代體力勞動,大量依靠腦力勞動的崗位也會被其取代,這將給人類就業問題帶來極大的挑戰。
二、數據洩露和信息泛濫導致對隱私權的侵犯
隱私權是指公民享有的私人生活安寧、私人空間安全與私人信息依法受到保護,不被他人非法侵擾、知悉、搜集、利用和公開的一種人格權。建立在大數據和深度學習基礎上的人工智慧技術,需要海量數據來學習訓練算法,帶來了數據盜用、信息洩露和個人侵害的風險。從人們的數據軌跡中可以獲取許多個人信息,這些信息如果被非法利用,將會構成對隱私權的侵犯。人們對智能工具的使用實際上是在為自己織一張網,行動支付、聊天軟體、網絡購物、智慧導航、智能手環、網絡約車,把自己的行動、愛好、教育、財富,甚至健康狀況都暴露無遺,對智能工具使用越多、頻率越高,這張網織得越密越細,越無處可逃。這些數據和信息如果被不良商家掌握,會無休止地推銷、電話騷擾,使人不堪其擾,嚴重影響私生活安寧;如果被犯罪分子或黑客掌握和利用,會對人的財產甚至生命構成威脅。2015年,中美兩國都發生了社保信息洩露事件。中國上海、河南等19個省市上千萬人身份證、社保參保、薪酬、房產等5279萬條敏感信息被洩露。美國第二大醫療保險公司遭黑客攻擊,8000萬用戶的姓名、出生日期、社會安全號、家庭地址及受僱公司等個人信息受到影響。此外,用於商業目的的無人機的廣泛使用,無處不在的監控系統,在方便生活、保障安全的同時,其跟蹤、收集、儲存特定信息的功能,也對公民隱私權構成極大威脅。
三、信息偽造和欺詐嚴重侵蝕社會誠信體系
人工智慧具有強大的數據收集、分析以及信息生成能力,與之伴生的是虛假信息、欺詐信息大量充斥網絡。網際網路已經成為人們的主要信息來源,各類網站、自媒體、公眾號、微博、微信群、朋友圈,都是信息發布源,可以說是真假難辨,有虛假新聞,有虛假廣告,有的貌似「雞湯」實則「毒藥」,有的「掛著羊頭賣狗肉」。網際網路傳銷,網際網路金融詐騙,P2P詐騙、眾籌詐騙、網絡理財詐騙,手段隱蔽,技術含量高,涉眾性強,各類網際網路犯罪呈高發多發態勢。隨著人工智慧技術的不斷發展,很多東西都可以被仿造,包括我們自身。在烏鎮舉行的第五屆世界網際網路大會上, 中國首個「人工智慧主持人」橫空出世,它首先模仿的是新華社著名主持人邱浩,不論是外形、聲音、眼神,還是臉部動作、嘴唇動作, 「AI合成主播」與邱浩本人的相似度都高達99%。更不可思議的是,它可以隨意切換,照此程度模仿其他主持人,模仿他們的聲音,克隆他們的相貌。我們想像一下,如果別人克隆你的聲音、你的體型、你的相貌,在網絡上生成另外一個你,與你的家人或同事進行視頻對話,會有什麼樣的後果。人工智慧時代,眼見不一定為實。信息的偽造和欺詐, 不僅會侵蝕社會的誠信體系,還會對國家的政治安全、經濟安全和社會穩定帶來負面影響。
四、網絡沉迷和智能依賴影響人的全面發展
人的全面發展是馬克思主義的最高價值追求,也是我國教育方針的理論基石。人工智慧的發展在推動人類整體進步的同時,帶來的個體能力的退化也不容忽視。一個相當普遍的現象是,智慧型手機和網絡空間越來越讓人上癮,人被手機綁架,手不離機,機不離手,手機利用率之高,令人嘆為觀止。一些人對網路遊戲的痴迷更是到了不能自拔的程度。馬克思指出,「自由時間都是供自由發展的時間」,按照馬克思的劃分,自由時間包括娛樂、休息和用於發展個人才能(學習科學文化知識)三部分。現在的問題是,由於對手機和網絡的沉迷,自由時間中用於休息和發展個人才能的時間被嚴重擠佔,甚至擠佔了工作時間和勞動時間,勢必影響人的全面發展。更令人憂慮的是,沉迷網絡的大軍中,青少年學生、未成年人是主體力量。網絡上的色情、暴力和欺詐,對他們世界觀和價值觀的形成造成十分嚴重的負面影響。另外一個值得注意的現象是, 智能設備簡易、便捷的操作方式, 催生了許多人的懶惰和依賴,鍵盤一敲、手機一點,吃的送上門了, 穿的送上門了,用的送上門了,汽車到門口來接了。機器智能了,人類退化了。就像當年的「傻瓜」相機,相機先進了,使用相機的人成了只需按一下快門的「傻瓜」。
五、情感計算和類腦智能將挑戰傳統道德法律
讓機器人更像人類,一直是科學家們追求的目標,情感計算和類腦智能技術的發展為實現這一目標提供了可能。2017年4月,全球首款智能性愛機器人Harmony問世, 她具有學習能力並預設了天真、善良、性感等12種人格特徵,會和人類產生情感,可以模擬出真實的體溫。智能化性愛機器人的問世,將在一定範圍、一定程度上改變人們的家庭、婚姻、戀愛、情侶、伴侶的觀念,並對出軌、性侵、肖像權益等道德法律問題提出挑戰。情感計算技術的發展使人機情感交互更為自然。我們比喻人沒有情感像冷冰冰的機器,如果冷冰冰的機器被賦予了人的情感會怎麼樣呢?你的AI夥伴可能比家人更了解你的心思、更了解你的健康狀況,它能捕捉你的表情,根據你的喜怒哀樂、用你想聽的話和你對話。神經科技和腦機接口的發展不斷引領類腦智能技術的創新,但神經科技和人工智慧的融合發展也會帶來倫理挑戰。人類大腦與機器智能直接連接,繞過大腦和身體正常的感覺運動功能,擾亂人們對於身份和能動性的認知。增強型神經技術的應用,可能改變人的體能和心智。「超人」的出現已經不是科幻,「缸中之腦」假想可能成真, 這些將極大地改變社會規範。我是誰?這樣一個基本問題,可能不再單單是哲學家的終極追問,而是我們每一位普通人要經常面對的問題。如果我不是我了,那麼,我們的基本人權呢?我們的道德和法律責任呢?
六、數據質量和算法歧視會帶來偏見和非中立性
人工智慧以大數據和深度學習為基礎,理論上講,客觀的數據和理性的算法沒有情緒和偏好,應該會帶來中立的結果,但數據的質量、算法歧視以及人為因素往往會導致偏見和非中立性,比如性別歧視、種族歧視以及「有色眼鏡」效應。事實上,數據和算法導致的歧視往往具有更大的隱蔽性,更難以發現和消除。有一項研究發現,谷歌的廣告算法展示給女性用戶的招聘職位要比給男性展示的待遇低。美國一些法院使用的犯罪風險評估算法COMPAS被證明對黑人造成了系統性歧視,認為黑人被告比擁有類似犯罪記錄的白人被告更有可能再次犯罪。微軟在Twitter上上線的聊天機器人Tay在與網民互動過程中,由於大量惡意數據的輸入,成為集性別歧視、種族歧視等於一身的「不良少女」。中國有句古話: 「浪子回頭金不換」,但人工智慧超強的數據記憶,會對一個人歷史汙點形成「有色眼鏡」效應,對其就業、貸款,甚至戀愛、交友,產生持續負面影響。憑算法對你個人信息的分析,銀行就可以拒絕為你貸款,買票時你的優先度就被降低,購物時只能看到低廉的產品。更可怕的是,當你遭到不公平待遇時,你不知道是誰在歧視你,不知道因為什麼被歧視,你無處申訴、無法解決、無能為力。
七、數據壟斷和算法獨裁將挑戰現行的權力結構
以色列學者尤瓦爾·赫拉利在其新著《今日簡史:人類命運大議題》中對數據獨裁進行了集中討論,在他看來,數據將是21世紀最重要的資產,21世紀的政治將是關於數據流控制權的鬥爭。我們的數據越來越集中在阿里、騰訊、谷歌、臉譜等少數科技巨頭手裡,這些公司將逐步形成數據霸權。在數據霸權面前,不僅每個個體都無能為力,政治、經濟和社會的權力結構也將深刻調整。我們現在能感受到的已經有很多方面。我們在網際網路上看到的新聞,往往是個性化新聞推薦或者自動生成的新聞,經常看到的是聳人聽聞的「標題黨」, 或者雖是我們關心的題材,但新聞內容卻空洞無物。我們打開搜尋引擎,到處充斥的是真假難辨的廣告和宣傳,百度的「魏則西事件」就是極端的例證。基於數據壟斷和算法的操控,形成了一種新的權力獨裁。這種權力掌握在幾家大公司手裡,他們是遊戲規則的制定者,既是運動員,又是裁判員; 他們是基礎平臺的建造者,也是海量數據的擁有者,而平臺應該是公共基礎設施,數據應該是公共資源。人工智慧讓我們越來越方便的同時,也讓我們越來越依賴,我們沒有了獨立自由決策的能力, 成為數據和算法的奴隸。更為可怕的是,以前培養青少年價值觀的是教師和書本,人工智慧時代可能是數據和算法。
八、人工智慧對傳統安全和非傳統安全帶來新的挑戰
一方面是人工智慧運行中的安全性和可控性。在網絡安全方面,利用計算機網絡自身存在的漏洞,非法入侵獲取重要數據、篡改系統數據、植入病毒等手段, 進行攻擊和破壞活動。近年來, 全球網絡攻擊事件不斷湧現,病毒軟體、木馬殭屍網絡,通過人工智慧技術研發新的網絡攻擊工具,對一些關鍵基礎設施進行攻擊和破壞。在智能設備運行的安全方面,比如無人駕駛汽車,有可能發生車禍,對乘車人和路人造成傷害,帶來人身和財產安全問題。這裡存在倫理困境和法律責任問題。麻省理工學院在網站上曾就自動駕駛汽車的倫理問題向網民徵求意見:在來不及剎車的情況下,自動駕駛汽車如果往前開就會把三個闖紅燈的人撞死,但如果轉向就會碰到障礙物使車上的五個人死亡。在此情景下,車輛應當如何選擇?另一方面,是一些科學家擔心的人工智慧對人類的威脅和傷害。智能武器是可自動尋找、識別、跟蹤和摧毀目標的現代高技術兵器,包括精確制導武器、智能反導系統、無人駕駛飛機、無人駕駛坦克、無人駕駛潛艇、無人操作火炮、智能地雷、智能魚雷和自主多用途智能作戰機器人等,它將成為未來戰場主力軍,信息處理和計算能力成為戰爭勝負的決定因素。人工智慧武器是繼火藥和核武器之後戰爭領域的第三次革命。人工智慧如果被賦予傷害、破壞或欺騙人類的自主能力,將是人類的災難,後果難以想像。
馬克思說過,問題總是隨著解決問題的方法同時產生的。人工智慧所帶來的倫理問題,雖然嚴重但並不可怕。說到底,人工智慧就是工具,在生產力諸要素中,工具永遠不能成為主要的因素,人才是主要的起決定性作用的要素。人不僅是生產力的基本要素,而且是「主要的生產力」「最大的生產力」,是「生產力中決定性的要素」,這是馬克思主義的一個基本觀點。
無論是過去、現在或是將來, 一切智能產品都只能由人設計開發,即便是將來賦予機器人類腦功能,它也只能充當「二傳手」。馬克思有一個生動的比喻:「最蹩腳的建築師從一開始就比靈巧的蜜蜂高明的地方,是他在用蜂蠟建蜂房以前,已經在自己的頭腦中把它建成了。」解決問題的鑰匙始終掌握在人的手裡,人工智慧所帶來的倫理問題必須靠解決人類自身的倫理問題來解決。
作者單位:河北衡水職業技術學院/ 清華大學
文章來源:《中國發展觀察》2020年第1-2期合刊
公號內容版權歸屬中國發展出版社及中國發展觀察雜誌社,轉載務請註明出處(刊物名或本公號名)及原作者。
=====中國發展觀察=====
感謝關注和傳播「中國發展觀察」百度百家號,我們會努力提供有價值的回報。
《中國發展觀察》雜誌作為國務院發展研究中心主管的綜合性智庫類半月刊,是國家高端智庫建設的重要支撐和傳播平臺。
《中國發展觀察》雜誌是由國務院發展研究中心主管、中國發展出版社(國務院發展研究中心直屬單位)主辦、《中國發展觀察》雜誌社編輯出版,是以發展為主線、以經濟為重點的綜合性半月刊,開設有戰略、宏觀、區域、世界、法治、社會、文化、前沿、產業、智庫論壇等欄目,具有較強的前瞻性、權威性、可讀性;《中國發展觀察》在學術理論界、各級黨政機關以及企業家階層擁有廣泛而穩固的讀者群,並被中國社會科學院、國家發展改革委等重要機構和中國知網、維普資訊等權威資料庫列為核心期刊或來源期刊。
中國發展觀察雜誌社:
第一辦公區:北京經濟技術開發區榮華中路22號院亦城財富中心A座7層(郵編:100176)
第二辦公區:北京市西城區裕民東路3號京版信息港9層(郵編:100029)