內容提要:人工智慧立法應以立法範式轉型引領科技立法進入新時代。這一轉型是對近代以來科技立法形成的「技術—經濟」範式的重大超越。既有科技立法範式,簡單強調經濟主義的單一維度,雖然兩三百年以來成功地刺激了科技應用和經濟增長,但是現在明顯具有很大的不適應性。一方面,這種過度經濟主義模式本身導致了對科技社會性的忽視,引發越來越嚴重的科技與社會風險;另一方面,正在興起的人工智慧科技具有前所未有的強社會面相,它的巨大顛覆潛力和認知能力等特性,使得其應用面臨著複雜而迫切的社會規範要求,特別是引發了對人的價值性的關切,因此應該向「技術—社會+經濟」新範式轉變,以經濟性、社會性的雙重架構以及相應的四項原則等,來推進對人工智慧的合理規範。
關 鍵 詞:人工智慧立法/科技立法/「技術—經濟」範式/「技術—社會+經濟」範式/自主化技術/人的價值性/人工智慧倫理
作者簡介:龍衛球,法學博士,北京航空航天大學法學院教授,博士生導師,教育部長江學者特聘教授。北京 100191
基金項目:國家社會科學基金重大項目(16ZDA075)。
法律與科技自近代以來存在緊密的聯繫,人類基於對於科技作用的重視,自近代起設立了專門以科技作為規範事項的科技法。但是,我們可能注意到一個有關科技法的事實,那就是在其得以興起和發展的過去兩三百年間,科技法一直秉持的是一種「技術—經濟」的立法範式,就是說關注的主要只是技術的經濟規範意義。這種立法模式與人類關於科技的長期以來佔主流地位的思維是一致的,即技術經濟主義。這種思維對於科技的認知傾向是,「僅僅以經濟學和經濟史的術語來對待這一問題」①。即,技術主要作為具有巨大經濟意義的工業革命的推動要素而受重視。隨著人類對技術經濟意義追求不斷升級,甚至引發了對於技術的膜拜,促成一種技術統治乃至技術壟斷的技術意識形態後果[3](P43-62)。
一、問題的提出:人工智慧時代科技立法範式轉型的背景
人工智慧因機器學習等新方法和新技術的突破,成為當前最引人關注的新科技主題之一。人工智慧科技最新和未來一個時期發展的意義,首先是其被認識到正在取得主導科技的地位,在技術和經濟維度上形成了巨大的迭代力量,具有極端顛覆性的經濟應用前景,由此不斷引發投資風暴[4]。其次,則是它引起了作為新興科技事物正在產生前所未有的社會關注。人們開始意識到,它的發展影響不應該僅僅是技術經濟的,更應該是社會的。對人工智慧的這種社會關注,有積極方面的期待。計算社會學、人工智慧化社會理論正在揭示新社會發展和建構的可能性:例如,通過新計算方法和人工智慧,可以發展更好測量世界的全新思維工具;通過引入不斷升級的智能化,可以使得世界互聯、萬物互聯、人機互動關係更加嫻熟。這些使得進行大規模社會協作成為可能,社會共享、社會合作的前景誘人[5](P199)。總之,在人工智慧和新計算方法之下,社會智能化發展方興未艾,一個「超級全球化」時代似乎就在眼前[6](P2)。
但目前人們對於人工智慧的社會關切,更多還是消極方面的憂慮。首先是人類的適應性問題。美國科技社會思想家蘭登·溫納早前指出,當代新技術領域的發展,其導致的現代社會日益增長的複雜性和快速變化,超出了個人和社會形態的適應能力,「與社會技術系統日益增長的複雜性合在一起,這些變化使得人們越來越難以開展當代社會生活中某些最為基本的活動:規劃、設計以及功能上的協調合作」[1](P2)。其次則是科技自身風險及科技簡單經濟化引發的社會風險問題。風險理論家貝克便關注到,在當前發達科技條件下,一方面,令人擔憂的生態風險和高科技風險不斷具備新的特點,導致不可計算的威脅的後果;另一方面,在所謂現代性之中,還出現了財富的社會化生產與風險的社會化系統相伴的情況。「相應地,稀缺社會的分配問題和分配衝突,也同科技引發的風險在生產、界定及分配過程中產生的問題和衝突疊合在一起」「換言之,在風險社會中,未知的、意圖之外的後果成了歷史和社會的主宰力量」[7](P3,8)。就人工智慧來說,其對社會的影響尤為重大和特殊。人工智慧技術新發展,由於對計算方法極為推崇,導致了一種「計算主義」新思潮,似乎世界不過是計算或信息流構成的[8](P2,20)。這種信息簡化主義世界觀,引發了有識之士對「技術致死」的憂懼:如果我們的道德、倫理和公共事務等問題被所謂的技術重構,變得這樣簡單可控,那麼世界究竟會變成什麼樣[9](P92)?此外,人工智慧基於它在認知能力上的發展而具有與人的相通性,還帶來了棘手的重新塑造「人與人造物關係」的全新課題②。
人工智慧鑑於其科技事項屬性,從立法歸屬而言,自然應該納入科技立法的特別範疇[11]。由上可知,人工智慧作為正逢其時的技術新領域,其發展可能帶來經濟迭代福利的同時,也正在產生社會正反方面的巨大效應,因此從立法上來說必然導致更加複雜的要求。人工智慧最新和未來發展具有的經濟和社會的雙重影響,使得既有科技立法的所謂「技術—經濟」範式明顯具有不適應性。本文提出,人工智慧立法範式具有由傳統科技立法的「技術—經濟」範式轉向「技術—社會+經濟」範式,實是勢所必然。本文擬就這種轉型的歷史規律進行觀察和分析,並試圖在此基礎上探究新範式的基礎、內涵及其開展。
二、科技立法「技術—經濟」傳統範式的流變及其規範原理
科技立法專門化的最初基礎是人類對於科技在經濟上重要性的發現。科技具有經濟的重要性不等於就會產生科技立法,只有當技術發展到一定階段、人們形成了關於其重要性的認識,科技立法才會水到渠成,科技事項才會成為相對獨立的規範對象。
技術的重要性對於人類來說不言而喻。近代開始,人文理性主義的意識崛起,科學意識也隨之覺醒,人類技術開始與科學思維與方法緊密相關,從而由單純的技術發展為科技。這一時期,科學、科技先是作為人文理性主義的演繹產物得到發展,但很快就喧賓奪主,成為人文理性的替代形態而得到高舉。這種傾向在笛卡爾那裡就有了端倪,這位17世紀的歐洲哲學家和科學家,倡導科學主義,提出了一種普遍懷疑的哲學主張,因此被譽為「近代科學的始祖」③。漸漸地,科學主義思想佔據統治地位,理性主義幾乎等於科學主義。與此同時,英國的亞當·斯密等在理性主義的基礎上,提出了初始的自由市場理論,很快推動了市場經濟實踐。於是,在科學主義和市場主義的結合下,英國不僅最早出現了科技的發明自覺,而且因為市場需要,科技發明的經濟重要性也很快被認識到,於是導致了科技發明的勃發,而為了鼓勵這種科技發明的自覺以及確保其市場經濟效應的發揮,英國生發了相應的科技立法自覺,最早的科技法產生了,其形態就是鼓勵科技發明及其經濟利用的專利法——通過授予發明人以專利權和相關的財產、人身利益,以便極大地刺激和鼓勵科技發明和經濟應用④。一批直接與現實經濟需要密切相關的新發明應運而生,包括紡織機、蒸汽機等,它們在專利法的保障下發揮巨大的經濟潛力,支持英國最早開展工業革命,成為最早的工業強國。人類的科技立法也由此滾滾向前。
科技立法這種基於科學主義和經濟主義結合的產物,順理成章地導致了此後「技術—經濟」的立法範式的形成和不斷升級。一開始,二者之間是一種完全市場式的結合。立法者通過採取授予專利權等科技產權、確立有限責任公司等適合科技產業化規模風險經營的組織形態等市場化激勵方式,對於科技發明和應用加以刺激。專利制度和公司制度先從英國興起,後逐漸發展到美國、德國等國家,形成了科技立法國際發展的第一輪高潮。在「技術—經濟」範式鼓勵下,工業企業為了追求更加先進的科技產業利益,開始成立專門的工業實驗室進行有組織的科技研究,導致了大量工業發明出現。到19世紀中葉,除了傳統的煤炭、紡織業,電氣、化工等新的科技領域得到突破,進而促成了新科技產業的出現和繁榮。19世紀80年代以後,由於科技壟斷帶來的競爭優勢,在石油、採煤、榨油、菸草、製糖等部門出現了卡特爾、康採恩或託拉斯組織,這些不斷崛起的大型企業聯合,具有經濟集中的優勢,這種情況受到主流地位的自由市場理論抨擊,導致了旨在維護市場公平競爭的反壟斷法的出臺。但是,反壟斷法卻產生了更加促進有組織的工業研究的效果,因為大型企業只有不斷做出新領域的科技發明,才能夠避免陷入專一技術經營形成的壟斷。這種競爭利益雖然表面上看具有一定的社會性,被譽為社會經濟利益,但是本質上仍然是市場經濟利益,因為旨在保護市場競爭。從這個意義上說,科技立法的「技術—經濟」模式不斷在得到深化⑤。
科技立法的「技術—經濟」範式在20世紀中葉,被以一種強化國家幹預科技進步和轉化的方式,推進到一個新階段。20世紀三四十年代,各國基於二戰的需要,集中科技資源備戰,強化有組織的攻關研究,旨在保障和促進對於戰時工業經濟特別是軍工有優先支持作用的科技的發展和競爭。為此,各國政府紛紛引入科技與產業結合的幹預政策,此即科技政策。例如,美國成立了國防研究委員會,組織科技資源以增強國防能力,後來建立科學研究和發展局。二戰後,各國有的以戰後恢復和重建為需要,有的以提升國家競爭力和促進產業升級為目標,繼續幹預科技發展,以促進科技在期待的領域進步、轉化和創新。20世紀50年代,通過科技政策機制,大力投資基礎研究和高等教育,重建和發展打造知識資源和人力資源的基礎,並且著力電子、石化、原子能等新技術領域的科技創新和轉化,形成了新一輪科技產業化。原先以市場自由主義為基礎的「技術—經濟」模式,調整為以國家科技政策為基礎的幹預式「技術—經濟」模式⑥[12](P99-100)。這種情況持續到60年代經濟復甦之後,才開始向科技的市場自由化做調整,科技政策也開始關注市場需求;到80年代,更加強調科技資源供應和市場需求的結合,導致在微電子、生物技術和新材料等新領域又形成新一輪「技術—經濟」高峰。20世紀初,面對新一輪科技大發展的機遇期,各國為了快速提升和確保國家競爭力,更是大力推進科技創新政策,甚至上升到推行科技創新戰略的高度⑦。
這裡需要提到,中國在歷史上由於種種原因,近代以來處於科技發展的被動局面,並與工業革命失之交臂,因此長期以來都處於科技落後狀態,科技立法自然也是缺席的。1949年新中國建政後,動用國家體制力量,集中科技資源,就一些急需重大戰略科研進行了攻關,但科技發展和工業發展總體較為薄弱。20世紀70年代末開始,中國啟動經濟體制改革,提出「科技是第一生產力」論斷,以經濟建設為中心,並毫不遲疑引入「技術—經濟」模式,採取國家幹預和市場發展相結合,強化科技政策作用,確立了「經濟建設必須依靠科學技術、科學技術工作必須面向經濟建設」的科技服務於經濟的方針,並以此啟動科技體制改革,全面助力經濟體制改革[12](P107)。此後,還先後制定了《科學技術進步法》和《促進科技成果轉化法》。之後,科技政策不斷升級,經歷了1995年實施「科教興國」戰略、加強國家創新體系建設和2006年「自主創新戰略」、增強自主創新能力的兩次提升⑧。
科技立法基於「技術—經濟」範式,其規範原理歸納起來有四個方面:其一,堅持科技立法的專門化,形成了科技立法體系,逐漸形成科技市場法、科技風險法(主要是應對科技應用導致的工業風險、事故安全和特殊科技安全)、科技政策法三大具體領域。其二,主要以鼓勵、刺激科技的經濟實用價值為目標。最典型的是不斷發展和完善專利法、技術合同以及其他技術市場制度。其三,基於不同時期的政治經濟環境,靈活運用市場原則和國家幹預原則。總體上早期以市場自由為主,到了後來逐漸重視國家幹預,不斷出臺自上而下的促進科技進步、轉化和創新的政策機制,20世紀中葉達到頂峰,之後又逐漸回調,目前處於平衡狀態。其四,科技立法在「技術—經濟」範式下,對於科技社會問題並非完全棄之不顧,但在規範上是附帶的,而且很多是為了減緩貫徹科技經濟主義的社會後果。最早大概從19世紀開始,通過勞工運動,與當時科技應用相關的工業風險和勞動安全開始得到關注。英國政府於1802年推出第一部《工廠法》,提出了工廠生產安全的早期規範要求,到了1860年代相關立法保護範圍擴大到「有僱傭勞動的任何地方」,旨在適當改善被僱傭者的境遇。其他國家也陸續發展這種工廠法和勞工保護法規。這是早期科技立法的微弱社會性的一些體現。20世紀80年代之後,各種科技社會問題的不斷爆發,加上越來越多的社會運動的壓力,科技立法才加速納入科技社會問題的進程。具體體現為:工廠法、勞工保護法、工業事故法等進一步社會化[13](P1)。除了上述部分,國際社會也開始關注環境和生態保護,以及特殊科技安全如核安全等⑨,但是總體上仍然處於邊緣位置。
三、科技立法「技術—經濟」範式下的社會問題及其自主化技術後果
科技立法強調科技經濟意義實際上是強調一種效率導向[14](P98-102),這一點本身無可非議。人類在很長的一個時期內需要加強的確實就是自己的經濟生存能力問題,從功利主義的角度來說,讓人類具備吃飽穿暖的能力,這大概應該成為一條底線。很多經典學者對於國家意義的討論,很大一個基點就是經濟生存問題,所以就有了財產權設計的原初正當性。例如,洛克就認為,個人權利應該是從父權和財產權共同起源的,政府作為一種可以使得財產的自然狀態變成受保護的權利狀態的方式受到人們歡迎,所以才有了政府的必要,才有了政治社會和公民國家[15](P63-68)。康德也認為,對財產利益的保護是最初核心的誘導性因素,它引領處於自然狀態的人們走向聯合併形成政府或市民社會⑩[16](P186)。科技是人類自身可以創造的具備提升經濟能力的事物,所以在促進經濟意義上得到利用、受到重視,應該說是順理成章的。但科技具有經濟意義本身,並不等於科技僅僅具有經濟意義,或者說我們對於科技的關注唯其經濟意義即可。科技活動及其立法的「技術—經濟」範式的問題正在於此,簡單片面地強調對於科技經濟意義的追求,而忽視科技具有的其他方面的意義,甚至為了科技的經濟意義而不顧其他的後果。這種科技活動及其立法範式,在這二三百年的實踐中,帶來了許多負面的後果。
科技活動及其立法的「技術—經濟」範式,使得技術的社會性基本被忽略,引發甚至誘發許多社會問題包括社會政治問題。它通過與資本的結盟,在工業革命初期導致的社會災害問題就已經凸顯,比如說工業事故、勞動安全以及嚴重的社會不公平問題。這些也導致了社會的不安定,損害了社會團結。技術經濟主義,進而也會導致從技術支配經濟到技術支配人的問題。卡爾·馬克思在《資本論》中,深刻揭示了這種資本倚重工業技術的經濟主義單邊結構,不斷導致社會分化乃至社會關係異化,從而導致資本家或企業主與工人的對立關係。工人的主體性,被資本作用下的「技術—經濟」架構以及資本家經濟利益單邊結構所支配。這是非常可怕的,使得資本主義社會長期陷入對抗之中而不能自拔[17](P1)。技術經濟主義,也促成了國家之間的惡性競爭和極差,導致了歐洲國家之間的多次爭霸,導致了技術先進國家對技術落後國家的技術支配和殖民,惡化國際社會關係。建立在技術經濟主義基礎上的政治秩序,無論國內還是國際,一直以來都處於惡性的競爭格局之中,雖然在每次劇烈衝突之後都有所調整和節制,但是總體上並不能有效控制,更談不上消除問題。到今天為止,世界仍然處於一種基於科技逐利的、通過科技極差壓制掠奪他國的極為互不信任的關係之中。正在進行的中美貿易戰就是一個典型例子。技術經濟主義,還使得其不能及時回應科技及其應用引發的不斷升級的環境和安全問題。工業革命以來,科技立法對於環境破壞問題長期處於沉默狀態,直到20世紀60年代在環境社會運動的壓力下,才逐漸將環境保護問題提上議程,但直到今天這個問題解決起來其實還很困難,包括開展環境治理的國際合作十分不易。工業革命以來,科技發展的安全和威脅問題,也一直處於邊緣位置,直到20世紀中葉,當航空航天科技、核技術、生化技術等對人類生存構成嚴重威脅時,相關議題才進入視野。
科技活動及其「技術—經濟」立法範式,其產生的最根本上威脅人類自身存在價值的一種後果,是技術結構的自主性滋長。技術在一種自主性結構邏輯裡面為所欲為,進而發展為失去人的控制的主體化僭越。雅克·埃呂爾將這種技術失去控制的情況,稱為「自主化技術」後果,即「技術已經成為自主的;它已經塑造了一個技術無孔不入的世界,這個世界遵從技術自身的規律,並已拋棄了所有的傳統」[18](P13)。自主化技術後果,首先對於個人的自主性具有致命的威脅[19](P1)。海德格爾就此描述說:「人都將比以往更緊密被技術力量包圍。這些力量,它們要求、束縛、拖曳、逼迫和強制著,將人置於這樣或那樣的技術發明形式的控制之下——這些力量……自從超越他的意志以來已經走了很遠,他的決策能力已經落後了。」[18](P12)自主化技術的後果,對於人類文化自主性形成壓制,最終促成技術統治乃至技術壟斷。美國學者尼爾·波斯曼在《技術壟斷》一書中提出,人類技術文明以來可以劃分為三個時代,即工具時代、技術統治時代和技術壟斷時代。人類直到17世紀,都是處於工具時代,技術成為人類自身文化的工具;進入工業革命之後,技術地位不斷上升,逐漸取得統治權,開啟技術統治時代,對人類文化產生了極大的改造效應,雖然表面上促進了平等和自由,但也出現了產業化和科技競爭的狂熱;今天則開始進入技術壟斷時代,文化向技術投降,技術幾乎要徹底壟斷人類文化觀[3](P21-62)。
四、人工智慧立法「技術—社會+經濟」新範式的基礎及其開展
人工智慧科技作為第四次工業革命引燃的新科技之一,是以機器學習算法(如人工神經網絡和深度學習方法)和自動發現技術為基礎的,這些技術讓智能的機器人與計算機獲得認知能力,可以通過設計實現自我編程,形成從基本原理中找到最佳解決方案的能力。現在應用的領域突飛猛進,從智能助手向環境智能急速轉進[20](P9)。前者,包括人機交談(如蘋果公司的Siri語音服務)、文字輸入預測、歸納文本信息、診斷疾病、選擇推送廣告、搜索算法(谷歌)、翻譯軟體、智能法務等;後者,則包括正在開發或不斷改進的作為單體使用的無人機、無人駕駛汽車、警務機器人、夥伴機器人等,也包括作為提供管理和服務的智慧交通管理平臺、智慧城市管理平臺、司法服務自助和分發平臺等[21](P152)。
(一)人工智慧科技的「強社會面相」與立法範式轉變基礎
世界經濟論壇創始人施瓦布提出,要關注科技革新或工業革命可能導致負外部性,即對於社會的損害或威脅。他認為,此前的第三次工業革命,雖然取得了巨大的發展,但是在科技競爭、經濟一體化和全球化的情勢下,卻付出了損害自然環境、弱勢群體等沉重代價,而以人工智慧等新科技為表徵的第四次工業革命如果不想重蹈覆轍,那麼最好是要管理好這種外部性效應,防範和避免科技應用的意外後果、變革成本、二級影響以及蓄意濫用的傷害等[21](P3,11)。
人工智慧發展基於其科技特點以及極具顛覆性的經濟應用潛能,如果不提前應對和防範,其可能帶來的社會負外部性,毫無疑問會比既有的任何科技都更加複雜和嚴重。人工智慧科技作為新興科技,自身在應用上具有許多其他科技無法比擬的迭代效應,存在巨大的應用場景和產業化空間,此外還具有滲透其他幾乎所有領域的效用,即通過「人工智慧+」方式,可以放大其他領域的效用。這是積極方面的。但是消極面來講,如果處理不好,也會帶來許多可能意想不到的負外部性後果,包括甚至放大其他領域的社會問題。因此需要預先布局,提前做好化解和應對,以避免貪功冒進、陷入社會危機。已經有不少人工智慧社會學家對之做出了嚴肅的關注和研究,並且做出了許多中肯的揭示或預測。中國政府2017年7月8日發布《新一代人工智慧發展規劃》也關注了人工智慧發展的不確定性帶來新挑戰,提出「人工智慧是影響面廣的顛覆性技術,可能帶來改變就業結構、衝擊法律與社會倫理、侵犯個人隱私、挑戰國際關係準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。在大力發展人工智慧的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智慧安全、可靠、可控發展」[22]。
首先,人工智慧發展可能帶來的負外部性,許多是整體性或共同性的。主要體現為兩個方面,即可能引發系統的社會公平和平等問題以及可能引發社會安全和風險問題。其一,人工智慧基於其應用可能導致社會不公平、不平等,主要是因為人工智慧作為一種更具顛覆性的技術,容易使得先用者取得一種科技極差優勢和事實上的科技壟斷優勢。從而,不僅會使得財富和福祉分配不公平,甚至導致贏者通吃的吸利效應,使得後用者或者各種原因被排除在人工智慧技術之外的人,特別是利益相關者,成為新技術的弱勢群體,進而成為社會弱勢群體(11)[23](P7-8)。一般而言,最大的受益者應該是科技創造者、投資人、股東,以及控制了作為人工智慧運行基礎的數據的為數不多的大平臺;而具體的勞動者、消費者(12)甚至一般生產者等則容易淪為不幸者[20](P9-12)。其中,勞動力市場公平問題目前最令人關注。面對人工智慧可能帶來的產業消失、從業人口減少和為釋放出來的勞動力尋找出路,該如何縮短轉型周期,是擺在政府面前的一個現實命題。人工智慧將導致傳統勞動力的大量失業,合理安排、疏導或是通過培訓再次利用這些勞動力,將是對政府的重大考驗。但在另一方面,人工智慧人才短缺又成為制約人工智慧產業發展的短板(13)。所以,勞動力體制改革已經是迫在眉睫。2016年12月歐巴馬政府出臺《人工智慧、自動化和經濟》報告,便涉及培養人工智慧人才和同時解決勞動力失業難題兩個方面(14)[24]。歐盟委員會發布了2018《關於人工智慧的通訊》,也關注了自動化、機器人和AI的出現正在改變勞動力市場,提出現階段做出量化的評估還不具備條件,但歐盟必須為此變革做好準備[25]。中國2017年《新一代人工智慧發展規劃》在保障措施部分的第五點提到,大力發展勞動力培訓,但目前這方面的舉措還有待實化和明確(15)。其二,人工智慧基於應用特別是濫用,比以往許多科技都可能更容易使得社會陷入不安全或巨大風險。這是因為,人工智慧的研發和應用,無論從系統穩定、功能還是應對複雜社會環境、防範人為濫用或者破壞等來講,都具有更加的不確定性[21](P10-11)。廣義上的社會風險,還包括人們對於人工智慧時代的不適應性。因為人工智慧帶來的變化速度,可能已經超出了人類基因選擇和文化選擇的適應能力[26](P22)。中國《新一代人工智慧發展規劃》第一部分的總體部署,提到了人工智慧發展與風險防範的並舉要求,即「把握人工智慧技術屬性和社會屬性高度融合的特徵。既要加大人工智慧研發和應用力度,最大程度發揮人工智慧潛力;又要預判人工智慧的挑戰,協調產業政策、創新政策與社會政策,實現激勵發展與合理規制的協調,最大限度防範風險」[22]。
其次,人工智慧可能的負外部性,更多是具體的,體現在人工智慧特定化的具體應用場景。所以,場景細分研究很重要。例如,在人工智慧決策領域,可能導致的負效應就包括問責不合理、引發失業、誘發網絡入侵和網絡犯罪、缺乏責任義務、決策過程不透明或難以理解、加劇該領域的不平等、違反算法合理、對人性化形成根本威脅等;在人工智慧替代白領工作領域可能導致的負效應,主要包括失業、問責和義務不合理、法律財務信息披露風險加劇、工作自動化等;在人工智慧服務領域,其負效應則可能有失業、責任和義務不合理、向全天候服務轉變、誘發黑客和網絡安全風險等[20](P161-166)。具體場景中,至於無人機、自動駕駛汽車、警務機器人、自動致命武器等則更加複雜,正處於熱議之中,目前的研究似乎離形成清晰化認識還有很大差距。限於篇幅,這裡不予贅述。
上面這些社會問題,還不是人工智慧科技最複雜的消極問題。人工智慧新科技與其他許多科技有一個很不同的特點,就是它是一種以認知能力為基礎的技術,為此是具有與人相通的特點,因此引發極強的倫理關切。在應用面向上說,這種與人的相通性可能帶來不可估量的潛在效用,能夠替代人類發揮智慧作用,可以想像,從經濟增進上來說功效可期,厚利在望。但是,它以與人相通性以及以人機互動或者對人的替代作為效用設計的特點,也可能導致對人的混淆甚至取代的後果。由此,引發令人困惑的人與人造物的關係難題,導致人自身存在的危機感,這是前所未有的問題。第四次工業革命的新科技之中,能與人工智慧科技對人自身形成威脅近似的,還有生物科技、神經科技。以生物科技為例,生物技術經過過去20年的發展,在數位技術和新材料的支持下,基因組、基因工程、診斷學、製藥開發等方面都取得了質的飛躍,出現了能夠改變生物系統的技術或生物設計技術,在DNA測序、DNA合成等DNA操縱下,轉基因植物技術、幹細胞技術、克隆技術、胚胎技術、基因治理技術、基因編程技術等可謂層出不窮,這些對於生物工程、精密醫學、農業、環境、人體健康等顯然具有極大的應用價值,但是它們同時帶來了對於人本的威脅,因為極有可能改變人之為人的原樣,所以也引發了極為深刻的人本主義觀念下的倫理和安全危機[21](P187)。神經科技,也有類似之憂[21](P199)。這個倫理性問題不好處理,值得加強研究,要儘快拿出可以確信的兼顧倫理設計的方案來。我們固然不能過於保守地處理人工智慧帶來的「人的危機」問題,但是引入必要的監管設計應該不可避免。遺憾的是,目前各國和有關國際組織雖然在倡導一些人工智慧倫理標準,包括所謂機器人安全原則,但還沒有形成總括性的行之有效的全球標準。
人工智慧科技在「技術經濟」模式下可能形成的負效應,可以歸結為人工智慧的科技社會風險。科技如果僅在經濟主義的刺激下,作為改善物質需求發展和應用,脫離對社會價值的考量,那就必定會使技術與社會嚴重脫節,導致嚴重的社會風險,廣義上包括對人自身的風險。自近代以來,科技風險概念就以特殊的形態不斷升級,這都與所謂科技現代化採取單邊經濟主義相關。風險社會理論家貝克稱之為「工業社會的自反性」或「自反性現代化」。即,「生產力在現代化進程中的指數式增長,使風險和潛在自我威脅的釋放達到了前所未有的程度」「在工業社會中,財富生產的『邏輯』支配風險生產的『邏輯』」「從現代化進程自反性角度來看,生產力喪失了其清白無辜的面目。技術—經濟『進步』帶來的力量,日益為風險生產的陰影所籠罩。」[7](P7)科技社會風險演進到今天,早已不再是從前的潛在的副作用,而是達到極端泛濫或突變的程度;這種風險也顯然不同於19世紀20世紀上半葉的工廠或職業危機,而是成為對於自然界和人類自身包括生命重大威脅,且成為跨越國界和族群的全球性危害[7](P3,7)。
人工智慧科技的強社會面相,也體現在其積極方面的協同需要。人工智慧無論從研發還是應用,都包含了巨大的共享和協同需求,同時也蘊含了巨大的共享和協同價值,還暗含新時代的普惠追求。因此,人工智慧無論是其自身的研發、應用,還是對於其他領域的滲透,都高度依賴於協同性的資源配置安排或者運行合作。人工智慧開發和應用需要的協同,包括基礎方面的協同,例如數據協同、平臺協同、管理協同,也包括具體應用功能和主體的協同,還包括人機協同等等。這些甚至要落到具體行為、管理、權利、義務、責任的協同上來,導致人工智慧相關的權力、職責、權利、義務、責任等不會簡單地像既有範式那樣去設計,而是需要基於協同的要求做出必要合理的變化。僅以數據資源為例,人工智慧的開發和應用,離不開大數據集聚和及時更新,數據越豐富越動態就越好,因此有必要通過設計為人工智慧開發者創造合理獲取數據的機會,除了儘可能開放可公開資源之外,也需要為人工智慧開發者提供在具體場景中動態獲取必要數據的便利。但是這些會與數據管理、數據權屬、個人信息保護等既有法律秩序產生衝突,因此需要進行巧妙的協同設計,實現雙贏,以便最終使得協同成為可能並且圓滿(16)。目前,存在一種因關注共享而完全否認數據權屬化的觀點,筆者認為這種觀點對於共享設計架構有簡單化嫌疑,難以提供合理的主體間數據合作的根源和動力[27](P1-12)。基於人工智慧的信任機制也很重要,應當配合協同需要完善相應的信任機制。馬克·格蘭諾維特在《社會與經濟:信任、權力和制度》一書中提到,個人行為雖然存在自利和受規則與價值體系影響之間的微妙關係,但信任和權力也會潛移默化地塑造個人的心智結構,所以信任也是個人行為非常重要的社會因素[28](P91-140)。人工智慧的信任機制體現在許多方面,但往往是具體場景化的,例如在人工智慧決策領域,理性的數據驅動,決策過程的透明、可理解以及決策可問責等,大概都具有增進信任的功效(17)。目前人工智慧自動駕駛汽車行業比較注重在關鍵點上、如隱私問題,通過宣示自律措施確立信任機制(18)。
總之,人工智慧科技以一種強社會面相,展示了前所未有的社會規範需求性,這既是科技經濟主義發展到今天,導致科技應用勢必陷入極大風險的警示結果,也是人工智慧科技自身發展到現階段,需要更加特殊的社會協作和信任機制加以支持的要求使然。可見,人工智慧科技立法作為科技立法發展到當下的特殊新領域,其轉型勢在必行。由上述論證邏輯可知,應當超越既有科技立法的「技術—經濟」範式,而以兼顧社會的新面相,跨入「經濟—社會+經濟」的新階段。
(二)人工智慧立法「技術—社會+經濟」新範式的開展
人工智慧立法的新範式,以技術社會性的兼顧,從架構上總體上需要堅持兩重性。一方面,仍然致力促進人工智慧科技的經濟意義。人類在很長一個時期之內,需要通過科技提升自己的經濟能力,這本身並沒有錯。只要在我們的世界還存在物質短缺或財富增長的需求,那麼科技的經濟效應就值得我們追求。我們今天還沒有到可以摒棄科技經濟效用的時候,只是不宜取經濟主義而單兵冒進,而是應予制度創新,兼顧必要的社會性以有所節制。何況,目前階段,人工智慧科技只是形成了巨大的潛力,還有重要的技術突破和擴展時期,從經濟意義特別是國家處於機遇期需要提升競爭力上說,還存在一個極具關鍵的需要鼓勵和引導期間。當然,不同國家或不同階段存在差異性,導致經濟需求的迫切程度、正當化程度會有所不同。例如,發達國家經歷二三百年工業化的經濟主義追求之後,經濟增長進入了一個新的階段,而發展中國家卻仍然有不少還掙扎在貧困線上[7](P5)。這恐怕也是國際社會要就科技事項進行平衡規範,難以取得合作共識的原因之一。另一方面,必須引入和提升人工智慧科技社會規範。這是極為急迫而重要的。對應社會積極和消極的規範需求,體現為兩大方面。一是積極的人工智慧科技社會規範,重點是其合理研發和應用需要的社會協作、信任的規範體系建設。二是消極的人工智慧科技社會規範,重點是如何防範和應對前述人工智慧可能帶來的社會問題。這一部分其實就是人工智慧科技及社會風險立法範疇。通過加強並且系統化防範和治理的方式,達成風險可控。按照貝克的說法,就是要將過去稀缺社會的財富分配邏輯,向發達現代性的風險分配邏輯轉變,或者說從財富生產支配風險生產的邏輯,轉變為風險控制支配財富生產的邏輯[7](P3-48)。
人工智慧立法新範式的兩重性布局,應以全新的價值觀和更加合理的原則體系作為基礎。鑑於人工智慧的巨大科技風險,特別是基於其具有與人相通的認知能力,對於人本身構成了混淆或者替代威脅。一種正在成為主流的聲音認為,關於人工智慧立法的價值基礎,需要提升一個高度,即應從最基本的人本主義來思考,以人的基本安全為底線,提出入與人工智慧這種特殊人造物(也可以是打引號的「人造人」)的最低關係準則。學者和機構將之稱為人工智慧和機器人應用的基本倫理框架,作為人工智慧規範和政策的最高指導。當然,也有還在觀望之中的(19)[29](P25)。堅持人的價值觀的重點是,堅持人的價值的原初本體性,堅持人工智慧的價值與人的價值一致性,在二者發生衝突時以人的價值為優先。《聯合國世界人權宣言》和一系列相關文本宣示的,是人的價值的重要國際規範來源,但人的價值性應該不限於此。這也是第四次工業革命的新價值觀。施瓦布研究第四次工業革命的實踐時,呼籲要「確保對第四次工業革命由人類主導、以人文本。技術的開發必須尊重人類價值觀本身,而不是只考慮經濟價值。此外,以人為本意味著賦能於人,而不是支配人類的命運」[21](P11,32-55)。
雖然在人工智慧立法的價值體系中,人的價值觀居於最高位階,但還存在對於其他功能性或類型化價值追求。比如,從人工智慧作為科技自身角度的促進科技創新與競爭力的價值,從經濟角度的提升生產力和經濟效率的價值,從社會意義角度的維護社會基本公平與安全的價值等等。這些價值之間存在平衡關係,發生衝突時,社會價值應該具有優先適用性。但是,這些功能性價值,最終要服從於居於上位的人的價值,後者具有終極性、本位性和優先性。另外,僅從人工智慧的社會價值角度,筆者認為,廣義上至少包括倫理、安全、公平、包容四個方面,它們之間存在交叉重疊。其中,倫理既包括關於人的尊嚴,也包括一般社會倫理。目前,除了關注人的混淆和替代之外,重點關注的還有使用人工智慧導致過度監控問題、全景智能問題等。安全,既包括個人及人類的安全,也包括社會安全。公平,指社會不同人之間出現的機會或利益極差的情況;包容,則指平等、開放對待別人,歧視是其重要反例(20)[30]。此外,我國《新一代人工智慧發展規劃》強調的社會價值,還包括人工智慧對於社會建設的功能在內(21)。
人工智慧立法的上述價值觀,應當通過一系列原則在人工智慧的內在架構中予以進一步貫徹。這些原則成為全部規則設計和體系解釋的原理基礎。基於上述價值的邏輯展開,最少可以包括:其一,堅持維護人的尊嚴的原則。這是由堅持人的價值性推論出來的,毫無疑問是最主要的原則。其二,堅持技術創新、經濟效率和社會保護一體化原則。人工智慧立法應該做到三個功能價值的協調。目前的重點是矯正既往科技立法的慣習,重點對前兩項功能有所限制,以彰顯必要的社會保護。其三,堅持科技風險和監管一體化原則,或者叫科技風險和安全防範一體化原則。越是風險係數高的科技開發和應用,越應當增加風險的監管強度。如果應用於權力和責任更加重要的職位或情形,就應該引入更嚴格的監管甚至控制。鑑於人工智慧存在較高風險性,今後還會發展為極高,因此有必要建立與其風險級別相應的確保其安全可靠的監管體系,包括引入與風險相適應的監管系統和方法。比如說,劃分不同主體或產品風險等級,進行相應資質管理;引入風險監測體系,進行相應的監測、預警或應急管理;建立內外結合互動的安全管理體系;引入利益相關者決策和反映程序等等。其四,堅持行為治理和技術治理協同的原則。人工智慧作為一種複雜技術,其治理與對於一般的行為治理不同,存在技術專業化的特殊性,從科學的角度來說,除了通常法律的行為治理模式,應當針對技術架構的特點引入技術治理(22)。例如,為了達到更好地貫徹價值的效果,應當在人工智慧設計環節就為技術賦予價值觀,把必要的人本要求、社會需要預先嵌入進去,使其成為「價值—技術」「社會—技術」系統[21](P11,42-48)。現在我們見到的「隱私設計保護」就有這種妙用。在重大決策、執法(警務機器人)或者致命效應(自動化致命武器)的人工智慧系統設計中,安全技術同步設計、價值和社會功能預先嵌入設計、運行與風險評估會同設計,都是十分必要的。
最後,從立法範疇看,人工智慧立法作為科技立法的特別領域法,應當注意一般與具體的結合,還要注意自身與其他法律的交叉。前者,體現為人工智慧立法存在一般規範與具體規範的合理分置問題。人工智慧一般法,通常包括人工智慧一般市場規範、一般風險規範以及一般政策規範的內容;而人工智慧特別法,目前存在不同劃分方法,現在的一種趨勢是,按照人工智慧具體場景或者應用功能類型做出進一步細分,比如人工智慧傳媒、內容分發、電商平臺、社交平臺、搜索算法、公共服務(廣義包括政務、司法等)、交通(無人機、自動駕駛)、智能輔助、醫療診斷、法律助手等。後者,則指應當注意人工智慧立法與憲法、行政法、民商法、刑法、訴訟法、經濟法、環境法、智慧財產權法、國際法等既有法律的交叉關係,它主要是以與普通法有重要區別的科技特別法而定位。所以,一方面人工智慧領域存在傳統法律部門的交叉適用,另一方面卻在很多地方需要具體化、特殊化、進一步場景化。以經濟法領域為例,最近幾年圍繞人工智慧和大數據的使用,開始產生大數據、人工智慧與競爭政策的新問題,出現了數據驅動型、人工智慧驅動型的反競爭行為甚至是壟斷行為(23)[31](P1)。
五、結論:人工智慧立法轉型引領科技與法律新型關係
近代以來科技立法以經濟主義之名,在「技術—經濟」軌道上走了很久,兩三百年以來收穫了巨大的技術經濟紅利。我們為之也付出了不菲的代價,特別是在近前以來越來越感受科技對人類安全的威脅、對於社會公平和安定的不斷衝擊。進而,自主化技術和技術壟斷成為時代標籤,而我們在其中正在失去作為人的自主性,被裹挾、被無奈。那麼,人工智慧時代,我們還應該這樣嗎?當然不應該。人工智慧科技以其潛在的威力正在塑形一個新的時代;而人類法律智慧在這個時刻應該感受自身元神的召喚!我們在期待見證人工智慧新經濟的時刻,也應擔心,這種人工智慧科技,會使得人類被混淆和取代嗎?我們的「人性」會被擠出這個世界的主要位置嗎?我們應該如何應對和布局,才算理順了人與人造物的基本關係?我們能夠接受或容忍與人工智慧進行何種相通呢?
本文正是在這個意義上,提出人工智慧立法應當跳出路徑依賴,告別「技術經濟人」簡單假設,全新打量技術社會場域的新思考,兼顧經濟與社會,即要從「技術—經濟」向「技術—社會+經濟」轉型。既擁抱人工智慧的經濟福利,又發展和保全人類自身和社會。總之,這種新範式體現著當代科技立法的新趨勢,演繹著科技新人文主義,引領法律與科技的關係新型化,由單一經濟主義向社會和經濟並重轉變,成就第四次工業革命中法律變革的精彩。
注釋:
①目前我國也有學者強調從技術化(人—技術—人)角度思考人工智慧立法[1](P1)[2](P37-41)。
②2015年,歐洲議會向歐洲委員會提出的「關於機器人民事規則的建議」(Report with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),大概是較早處理這一問題的立法建議[10]。關於人工智慧發展引發人與人造物關係的法律思考,參見烏戈·帕加羅的《誰為機器人的行為負責》。
③笛卡爾的哲學立場和科學主義思想,參見笛卡爾的《哲學原理》。斯賓諾莎對於笛卡爾基於科學主義的哲學思想有重要研究,可參見斯賓諾莎的《笛卡爾哲學原理:依幾何方法證明》。
④英國是世界上最早建立專利制度的國家。開始是以英王特權方式出現,早在1236年,英王就有授予波爾多市民色布製作技術15年壟斷權之舉,1331年再授予弗萊明商人織布染布特權,1369年授予商人鐘錶經營權,1561年授予製造白色石鹼壟斷權。1617年,英國正式制定了第一部專門的專利法,把一種發明壟斷權即專利權授予最早的發明者,有效期14年,但作為對價,發明者必須公開技術。
⑤西方經濟史及相關「技術—經濟」範式的知識,可以參考厲以寧的《資本主義的起源:比較經濟史研究》。
⑥例如,美國在1945年二戰結束之際,以「科學:沒有止境的前沿」為理由建立戰後的國家研究基金會,旨在發展和促進國家的科學研究和科學教育政策。
⑦歐盟1995年發布了《創新綠皮書》,提出改進創新環境的建議,1996年通過第一個《歐洲創新行動計劃》,2000年歐洲委員會提出「歐洲創新趨勢圖」,2005年歐盟委員會提出《研究與創新戰略》,2011年底公布《2020戰略創新計劃》。美國在歐巴馬時期的2009年和2011年發布了兩份《美國創新戰略》;川普執政後對內轉為重視自下而上的科技創新,2018年發布財年預算藍圖,對原有科技投入結構作出重要調整,廢除《清潔能源計劃》《全球氣候變化計劃》等,轉而支持油氣和煤炭行業發展,對外則強推美國優先。中國在2006年公布《國家中長期科學和技術發展規劃綱要(2006-2020)》,提出要在15年內進入創新型國家行列;2012年11月,中共十八大明確提出走中國特色自主創新道路,實施創新驅動發展戰略,隨後中共中央、國務院印發了《關於深化科技體制改革加快國家創新體系建設的意見》;2016年8月,國務院發布了《「十三五」國家科技創新規劃》,明確了「十三五」時期科技創新的總體思路、發展目標、主要任務和重大舉措;2017年,中共十九大報告將創新放在新發展理念之首。
⑧參見中共中央、國務院1995年《關於加速科學技術進步的決定》和1999年《關於加強技術創新、發展高科技、實現產業化的決定》;2006年《國家中長期科學和技術發展規劃綱要(2006-2020)》以及中共中央、國務院《關於實施科技規劃綱要增強自主創新能力的決定》。
⑨20世紀90年代開始,中國也開始關注科技的工業安全、環境保護和特殊科技安全等科技社會問題,加強政策引導,並且陸續制定相關法律,包括《礦山安全法》(1992年制定)、《勞動法》(1994年制定,其中一章專門規定勞動安全衛生)、《安全生產法》(2002年制定,2009年,2014年修訂)、《環境保護法》(1989年制定,2014年修訂)、《大氣汙染防治法》(1987年制定,2018年修改)、《水汙染防治法》(1984年制定,1996年、2008年、2017年修改)、《放射性汙染防治法》(2003年制定)、《民用核設施安全監督管理條例》(1986年制定)、《特種設備安全法》(2013年制定)、《網絡安全法》(2016年制定)、《核安全法》(2017年制定)和正在起草的《生物安全法》等。
⑩康德的財產權起源及其觀念,雖然論證起始於這種經濟誘因,但是他最終從個人理性主義加以塑造,並提倡個人自由理念的財產權。康德的財產權理論,可參見康德的《法的形上學原理:權利的科學》。康德的這一觀點,也為後來的布坎南所繼受。布坎南的財產權自由觀,在其《財產與自由》中有論述。
(11)歐盟數據保護委員會2015年發布的《應對大數據挑戰:呼籲通過設計和可責性實現透明性、用戶控制及數據保護》,禁止算法對窮人的或者弱勢群體的歧視,並且賦予質疑公平算法化的可能性。
(12)對於消費者來說,可能最突出的社會公平,體現為人工智慧算法帶來的信息不對稱、不透明、歧視(包容不夠)等問題,因此需要建立對稱、透明、包容的算法規則。
(13)2017年全球最大的職場社交平臺領英發布《全球人工智慧領域人才報告》,根據該報告全球人工智慧領域人才超過190萬人,美國擁有85萬,高居榜首,而中國只有不到5萬人。
(14)歐巴馬政府該報告主張:(1)投資和開發人工智慧,著重推動科學、技術、工程學、數據領域(STEM)的人才培養;(2)提供高質量的早期教育,投資確保所有的美國人都能負擔得起中學以上的教育,同時擴展就業驅動的培訓和終身學習的機會以及為工作者提供更好的指導以完成工作過渡;(3)幫助轉型過程中的工人並賦予工人權力,確保大家廣泛共享由人工智慧帶來的經濟增長收益。決策者應確保工人和求職者都能夠找到他們最適合的崗位,確保他們以工資上漲的形式獲得正確的工作回報。這包括加強失業保險、醫療補助、補充營養援助計劃(SNAP)和有需要家庭臨時援助(TANF)等關鍵支持以及實施新的計劃,例如工資保險以及為處於危機中的家庭提供緊急援助。工人賦權還包括加強對有需要的工人和家庭的關鍵保障措施,建立21世紀的退休制度,擴大享有醫療保健服務的人群的數量。增加工資、競爭力和工人議價能力以及實現稅收政策現代化和實施解決差異地域影響的戰略,將是支持工人和解決與勞動力市場變化相關重組問題的重要方面。
(15)我國已有專家正在關注人工智慧時代的勞動法或勞動權問題。可參見塗永前的《人工智慧「搶飯碗」,〈勞動法〉的變革該順勢而為》、林嘉的《回應資訊時代的新問題在技術進步中更好保護勞動者權利》。
(16)關於數據財產權及其協同機制的研究,可參考龍衛球的《數據新型財產權構建及體系研究》和《再論企業數據財產權化機制》。
(17)在某種意義上,人工智慧的系統安全包括依賴的網絡安全,也屬於可以增進信任的範疇。
(18)以美國為例,美國行業組織便就自動駕駛汽車的隱私保護問題倡導了自律保護要求,以增進消費者信任。2014年11月,汽車製造商聯盟和全球汽車製造商協會發布《消費者隱私保護原則——汽車技術和服務隱私保護原則》的報告,明確提出隱私問題對於消費者和汽車廠商都非常重要,要求參與該原則制定的19家汽車廠商都承諾遵守報告關於自動駕駛汽車隱私保護的要求。2017年2月,未來隱私論壇和美國汽車經銷商協會發布《汽車中的個人數據》(Personal Data In Your Car),向消費者介紹車輛收集的數據類型、有關收集使用指南以及用戶可能擁有的選項。
(19)2016年英國下議院科學與技術委員會《機器人與人工智慧》認為,雖然現在為這個新興領域制定全行業法規還為時過早,但現在開始仔細審查人工智慧系統的道德、法律和社會影響至關重要(報告第25頁)。建議在艾倫圖靈研究所設立一個常設人工智慧委員會,以檢查人工智慧近期和潛在的社會、倫理和法律影響。
(20)歐盟委員會的人工智慧高級專家組2018年12月發布的《可信人工智慧倫理指南》提出,實現可信人工智慧的七大關鍵為:個人主體與監督;穩定與安全;隱私與數據治理;透明;多樣、非歧視和公正;社會與環境發展;責任。這主要是從可信倫理角度出發的構建,值得研究。
(21)參見我國國務院2017年新一代《人工智慧發展規劃》第一部分「戰略態勢」第四段,描述了這種社會建設要求:「人工智慧帶來社會建設的新機遇。我國正處於全面建成小康社會的決勝階段,人口老齡化、資源環境約束等挑戰依然嚴峻,人工智慧在教育、醫療、養老、環境保護、城市運行、司法服務等領域廣泛應用,將極大提高公共服務精準化水平,全面提升人民生活品質。人工智慧技術可準確感知、預測、預警基礎設施和社會安全運行的重大態勢,及時把握群體認知及心理變化,主動決策反應,將顯著提高社會治理的能力和水平,對有效維護社會穩定具有不可替代的作用。」
(22)人工智慧的技術治理這一點,與網際網路治理具有的技術複雜性非常相似。
(23)2019年6月,史丹福大學法學院召開的「數據經濟最佳實踐國際會議」上,來自全球的學者和實務專家在很大一個環節討論了人工智慧和大數據引發的新型反競爭和壟斷問題,值得關注。
原文參考文獻:
[1]蘭登·溫納.自主性技術:作為政治思想主題的失控技術.楊海燕譯.北京:北京大學出版社,2014.
[2]齊延平.論人工智慧時代法律場景的變遷.法律科學(西北政法大學學報),2018,36(4).
[3]尼爾·波斯曼.技術壟斷:文化向技術投降.何道寬譯.北京:中信出版社,2019.
[4]CB Insights.The Race For AI:Google,Twitter,Intel,Apple In A Rush To Grab Artificial Intelligence S