段偉文丨數據智能時代的倫理反射弧

2021-01-08 澎湃新聞
文 / 段偉文

(中國社會科學院科學技術和社會研究中心)

追溯信息技術和數據技術所推動的信息及智能時代的發展歷程,每個人可以有不同的視角和答案。但有一點是肯定的——每一闋新的技術神話,都是一場技術與社會互構的傳奇,其實質是曠日持久且規模不斷拓展的社會倫理試驗。在這一超級社會倫理連續大劇中,各種價值反思與倫理權衡一直貫穿其中。

 沒有思想的世界:科技巨頭對獨立思考的威脅

[美] 富蘭克林·福爾 / 著

舍其 / 譯

中信出版集團,2019-12

1876年3月10日,美國發明家貝爾記錄下了世界上首次電話通話——我對著話筒大聲喊道:「沃森先生,到這裡來,我想見你。」在這起改變世界的事件中,電話這種新的信息技術拓展出一種可以實時交互的信息空間(info-sphere),而這種非在場的交互體驗讓普通人第一次感受到虛擬在場。自此,各種信息空間和虛擬在場方式成為資訊時代生活形式的基礎,亦導致諸多價值衝突和倫理抉擇。

在資訊時代起步之時,人們就開始為隱私權、數據權利受到侵害倍感困擾。電話剛剛開始普及時,往往是一個小鎮的幾家人共用一個電話信道,結果各種家長裡短、戀人間的悄悄話變得毫無隱私。後來,隨著交換機技術的發展,這些新技術帶來的倫理尷尬似乎得到了化解。但直到現在,從竊取電子通信錄和通信記錄到各種針對個人信息和敏感數據的不當採集,從騷擾性的推銷電話到藉助人工智慧語音造假的詐騙電話,信息通信技術的濫用乃至惡意使用仍屢禁不止,個人信息和數據的保護已成為智能時代捍衛個人權利的焦點。

 The Second Self: Computers and the Human Spirit

Sherry Turkle

The MIT Press, 2005-09

 

19世紀末20世紀初,隨著攝影技術的發展,照相成為記錄人們生活的迷人的新技術。當第一次看到自己定格於時空中的留影時,人們大多倍感欣喜和驚奇,但也有人會油然而生一種狐疑:一旦人的影像被記錄下來,會不會有一部分靈魂被偷走。雖然這種可怕的想像沒有變成現實,但人們很快意識到:拍下某個人的照片,往往意味著擁有了某種針對那個人的力量。特別是隨著各種可攜式相機的普及,隱私權被侵犯開始成為人們在享受信息技術的利好時不得不擔憂的問題。

近150年來,面對信息科技發展帶來的社會倫理挑戰,人們一般難以運用已有的道德規範加以應對,只能在其技術實踐和體驗中,逐漸構建起相應的倫理反射弧,進而在此柔性規範的基礎上,制定剛性的和可執行的法律規範。直到20世紀70年代,隨著計算機和資料庫的應用日益廣泛,個人數據及隱私權保護才成為法律規制的對象。

儘管當前在數據保護方面歐洲似乎更主動和積極,但美國卻是資訊時代個人數據和隱私保護的先鋒。1973年,美國衛生、教育和福利部(HEW)任命的數據自動化系統諮詢委員會首次提出了「公平信息實踐」(Fair Information Practices,簡寫為FIPs)的概念以及五項原則,對個人數據的透明性、使用限制、訪問和更正、數據質量、安全性等均做出了規定,這也成為美國國會次年通過的《隱私法》的基礎。1977年,根據《隱私法》設立的隱私保護研究委員會向卡特總統提交了《在信息社會中保護隱私》的報告,將FIPs的五項原則細化為八項原則,其中前三項原則是:開放原則,不應有一個秘密存在的個人數據記錄保存系統,並且應對組織的個人數據記錄保存規則、慣例和系統採取開放政策;個人準入原則,對於記錄保存機構以個人可識別的形式保存的信息,個人有權查看和複製;個人參與原則,對於記錄保存組織保存的個人信息,個人有權更正或修改該信息的實質內容。另外,報告中還闡明了任何數據保護系統都應該實現的三個目標:儘量減少幹擾、最大限度的公平、合法與可執行的保密預期。

如今各國的數據保護規範均源自FIPs,透過這些早期的探討,可以窺見管理者推動個人數據保護的初衷。不過必須指出的是,即便看起來是可執行的剛性規範,基於FIPs的數據保護在法律實踐中也並不成功,隱私保護一直在路上,甚至越來越困難。從個人的角度來看,用戶的知情權和選擇權往往被忽視,隱私政策時常難以理解。對企業來講,隱私政策又存在著高成本和互不兼容等問題。由此,一種必要的實踐智慧是,在相關法律不能達到有效規制的目標時,應該考慮到,技術的快速變遷和複雜的現實利益關聯往往使得相對剛性的法律規制難以有效執行。那麼,能否從法律層面退一步,在價值和倫理層面構建起更細緻的柔性約束,為更為務實有效的法律規制奠定基礎?具體而言,在越來越多的數據驅動的智能技術應用場景中,應該在法律層面確保個人安全、保證個人信息的完整性、實現保護的一致性和有效執行的同時,展開必要的價值權衡和倫理構建。一方面,通過價值權衡,促使個人數據與隱私的保護在預防數據流動對個人的危害與數據利用的效益最大化之間做出精細的權衡;另一方面,訴諸倫理構建,推動企業和機構對其行為的透明、誠信和責任做出具有一定約束力的倫理承諾。

除了隱私權和數據權利之外,資訊時代的另一個更難以應對的價值倫理挑戰來自數據造假。弔詭的是,雖然數據和信息被視為知識和智慧的基礎,但信息化、網絡化、數位化和智能化的發展帶來的最大悖論卻是低質量信息泛濫成災,各種水軍和社交機器人令人真假莫辨,大量虛假信息和數據使人面對後真相時代束手無策。儘管人們一度對科學實驗數據、照片、視頻刻畫的世界和事實的客觀性深信不疑,但最終不得不承認,凡是人從事的活動都可能造假,即便數據的記錄過程是誠實的,人們對這些記錄的解釋和利用也不可能不偏不倚。拋開攝影術本身的視角選擇和光影調配不說,照片並不是對世界赤裸而客觀的記錄,各種編排、增刪和特定的解釋會賦予照片不同的意義。

更讓人有挫敗感的是,由於數位技術和智能化的數據處理技術的加持,照片的偽造與變造成為與時俱進的數據造假方式。時至今日,生物醫學研究中頻頻爆出圖像和照片造假,嚴重削弱了科學家在公眾心目中恪守誠信的「人設」。面對生成對抗網絡的發展,人們在為人工智慧藝術前景歡呼的同時,難免擔憂深度造假的濫用可能帶來的危害。在《科學》(Science)雜誌2019年3月發表的一篇論文中,研究者甚至指出可以運用人工智慧在正常的醫學影像中製造罹患癌症的假象,並進而強調應防範醫院與保險公司合謀以此坑害患者。[1]

在充滿利益糾紛和權力爭奪的政治領域,數據分析和聊天機器人等人工智慧技術也淪為了造假利器。在英國脫歐公投和2016年美國大選中,劍橋分析公司利用大量數據鎖定並說服選民,通過人工智慧加持的「心理戰」幹預了投票。據報導,在英國脫歐公投期間,某國的一個網際網路研究機構通過13 000個機器人帳戶在推特(Twitter)上假裝為論辯雙方發言,但贊同脫歐的內容是反對脫歐的8倍;2016年美國大選期間,有1/5的網絡辯論來自機器人。更充滿魔幻色彩的黑色幽默是,2015年專為已婚人士尋求豔遇的約會網站AshleyMadison.com遭到黑客攻擊,3 700萬用戶資料被洩露,結果顯示,500萬女性用戶中的大多數在註冊後鮮少登陸,而其中7萬被稱為「天使」的註冊為女性的用戶卻十分活躍。「天使」們會主動與男性用戶聯繫,但在對方付費後才予回復並在幾個月間保持聯繫,以確保「渣男」們繼續登陸和續費……當然,聰明的讀者已經知道了荒謬的謎底:讓登徒子們垂涎三尺而不得的「天使」們,無一不是邊吃數據邊送秋波如假包換的「機器姬」。[2]面對人工智慧數據造假和機器人水軍之類高技術含量的挑戰,單靠價值反思和倫理調適無異於紙上談兵,必須從技術反制和法律規制兩個方面予以有力的制約。國家網際網路信息辦公室、文化和旅遊部、國家廣播電視總局2019年11月底聯合印發的《網絡音視頻信息服務管理規定》(2020年1月1日起施行)無疑有利於遏制人工智慧新聞造假等行為。

 新黑暗時代:科技與未來的終結

[英] 詹姆斯 · 布萊德爾 / 著

宋平、梁餘音 / 譯

萬有引力、廣東人民出版社,2019-06

不論信息和智能科技要進行什麼樣的社會倫理試驗,最終的目的只能是創造一種人人都可以接受的公平正義的美好生活,而這一目的的實現往往需要每個公民的實際行動。在資訊時代的高歌猛進中,不可迴避的現實是,信息技術的產業化發展及其對人類社會的顛覆性影響與其在社會政治層面所凝聚的知識權力結構休戚相關。而常識告訴我們,再完美的權力機構,也有陽光雨露灑不到的角落,而要改變這一點,需要每個人以切實的行動去矯正由權力盲區造成的公正落差。最簡單的事實是,包括網際網路在內的所有信息通信網絡都建立在自然壟斷的信息基礎產業之上。20世紀20年代,美國密西根州等比較偏遠的地區,被美國電報電話公司等電信巨頭視為沒有必要布線的無利可圖的地方,那裡有大約300萬的農民通過自製的可以傳導電信號的柵欄傳遞信息和通話。資訊理論的創立者香農(Claude Shannon)小時候曾是維護這種電柵欄的能手。這個可能被歷史遺忘的故事表明,縱使面對壟斷和排他的知識權力結構,人們依然可以運用其掌握的技術發揮能動性。面對高度壟斷的軟體產業,開放原始碼運動帶來的開源軟體使人們更多地享受到信息技術創新的紅利;在地震等災害中,人們可以通過智慧型手機的應用軟體共享災區的重要信息;在智慧城市實踐中,很多軟體工程師擔當起公民科學家,投身公益性軟體的開發。

﹏﹏﹏﹏

網際網路的概念來源之一可以追溯至人們對智能圈、超級智能等人類知識與智慧空間的嚮往,其目標是通過知識共享推動知識創造。1946年,美國戰後科技政策的操盤手範內瓦·布希(Vannevar Bush)在《大西洋月刊》(The Atlantic)上發表了一篇題為「恰如我們一樣思考」(As We May Think)的文章,倡導開發能大規模記錄人類活動以促進人類的經驗智慧增長的技術。在文中,他虛構了一種被稱為Memex的臺式信息機器。這個機器由存儲器、一個鍵盤、一塊半透明屏幕等組成,可以通過微縮膠捲輸入,用鍵盤檢索大量的存儲數據。這樣一來,人們只要在辦公室就可以檢索和管理信息,通過各種知識庫拓展智能,更好地管理各種事務。50年後,布希的這一構想被追認為網絡超文本連結的原始構想。

直到20世紀六七十年代,在西方反主流文化運動中成長起來的數字烏託邦主義者才將計算機和網絡等信息技術視為掙脫現代性對人的僵硬的安排的工具。他們創造了個人電腦、全球電子連結,建立了引領網際網路早期發展的賽博文化(Cyber culture)。20多年前,在比爾·蓋茨(Bill Gates)的《未來之路》(The Road Ahead)和尼葛洛龐帝(Nicholas Negroponte)的《數位化生存》(Being Digital)等未來啟示錄式的暢銷書中,展示了一系列以摩爾定律和新自由主義為基調的技術樂觀主義的願景,信息技術創新似乎會帶來一種沒有極限的增長,網絡空間與虛擬實境會賦予人們一個更加平權、民主、自由的去中心化的前景。但這種貌似個體可以通過虛擬的網絡空間擺脫現實社會制約的幻象很快就破滅了,信息網絡空間並沒有成為獨立於物理空間的賽博空間,而是成了虛擬與現實相互交纏的數據空間和編碼空間。

 未來之路

比爾·蓋茨 / 著

辜正坤 / 譯

北京大學出版社,1996-01

 數位化生存

[美] 尼古拉·尼葛洛龐帝 / 著

胡泳,範海燕 / 譯

電子工業出版社,2017-01

隨著谷歌搜索對百科全書檢索式的雅虎等早期門戶網站的超越,以及Web2.0和網絡社交新媒體的發展,用戶所生成的內容(UGC)不僅使網絡為用戶數據所驅動,而且這些數據反過來會成為人們的數據足跡。隨著移動網際網路、網絡社交媒體、智慧型手機、可穿戴設備等信息技術的發展和各種數據的指數化增長,對人的線上和線下行為數據的搜集和分析則可能使每個人成為被追蹤、觀測、分析的對象。數據的掌握者由此可對數據進行認知計算,藉助一定的算法對數據主體展開行為評分和內容推薦等,從而評判、引導和幹預人的行為。從社會形態的變遷來看,不論是運用數據描述或幹預世界和人的行為,還是運用各種可穿戴設備採集、分析數據以對他人或自己的生活進行量化自我等管理與治理,都預示著一個全新的社會——數據解析社會的來臨。數據解析社會這種新的社會形態是革命性的:一方面,數據所扮演的角色如同13世紀出現的透鏡,用透鏡製造的望遠鏡和顯微鏡讓宇宙和微觀世界得以被清晰地觀測與呈現,如今「數據透鏡」則使人的行為得到量化地記錄與透視;另一方面,就像17世紀笛卡爾發明解析幾何使自然界的結構與規律得以被探究一樣,數據分析與智能算法的應用正在使人的行為規律得以被洞察和解析。

針對這一時代性的變化,網際網路思想家馬克·戴維斯(Marc Davis)對數字人和數字自我進行了具有啟發性的思考。[3]在他看來,距今100萬年或更早,人類先祖演化為具有高度自我意識和認知能力的智人,作為物理自我的人成為一種可以在世界中行動的主體或自然人。約1萬年前,伴隨著《漢謨拉比法典》等法律制度的構建,逐漸出現了法人的概念,規定了具有行動自由和行為能力的人能做什麼和不能做什麼。而在最近的20餘年間,在網絡化、數位化和智能化的推動下,人們的行為越來越多地以在線的方式實現,個人信息或數據成為大數據和人工智慧應用的原料,人也因此獲得了「數字人」這一全新的存在形態。這一人類新形態使人一時間無所適從,其根本原因是尚未形成一種合理的數據規範。數據既是自我特徵又是智能應用的基礎,並由此導致了一系列前所未有的難題。戴維斯認為,如同物理自我應該得到保護一樣,數字自我也需要得到保護。其中最為基本的問題是隱私和控制問題:誰在採集你的數據?誰可以擁有它們?應該如何使用這些數據?如果說透過數據可以了解人的特徵和行為,那麼掌握這些數據是不是意味著對人的監控?大數據時代令人時刻感到焦慮的問題是:誰在何時何地能夠看到你?

 搜索:開啟智能時代的新引擎

[美] 斯特凡 · 韋茨 / 著

任頌華 / 譯

中信出版集團,2017-04

有關數字人或數字自我的討論表明,人類及反映其特徵和行為的數據已經逐漸融合為人與數據的聚合。一方面,通過各種監測手段獲得的數據,可以直接影響到人的感知和行為。當早上起來感覺頭暈的時候,你如果看到智能手環上顯示血壓較高或較低,就會感到緊張並立即服藥。另一方面,基於數據的智能認知日益與人類認知形成無縫連接,甚至使人在生活中產生一種人數協同的數據感。在一些情況下,這種覺知能力正在演變為基於數據覺知的具身認知。心跳、血壓、血糖等實時監測數據使人對自己的身體變化更加敏感,自動導航應用則會幫助方向感不好的司機更輕鬆自如地駛向目的地。而由此帶來的革命性變化才剛剛開始,各種數據驅動的智能系統未來將無處不在。就像人們現在佩戴的眼鏡,這些智能系統將為人們展示一幅增強現實的世界圖景:在去莎士比亞故居的路上,智能旅行系統會告訴你今天那裡將有什麼活動、最近有哪些名人造訪過,而你會越來越覺得這一切皆順理成章。

尤其值得關注的是,人與數據的聚合正在成為構造世界和塑造個人的基礎性活動。通過數據測量和分享,各種智能設備和應用將人連接到一個巨大的改變世界的行動者網絡之中。以Apple Watch、Fitbit等可穿戴設備為例,這些正在智能化生活世界中恣意生長的新奇物種給人的承諾是,像貼身的健康衛士和健身教練那樣,使用戶的飲食、睡眠、鍛鍊等生活習慣得到實時的調節。人們每天運動的步數、裡程、心率和所燃燒的卡路裡等數據都會被監測,一套量化指標被設定為努力的目標。常見的畫面是,倘若你久坐不動,智能手錶就會提醒你運動。但在智能設備和應用所連接起來的行動者網絡中,使故事變得完整的關鍵環節是,這些體貼入微的智能體扮演著無處不在的數據捕獲者的角色。經常遇到的場景是,如果你願意讓可穿戴設備採集你的運動數據,保險公司可為你提供保費優惠;你如果同意刷臉支付,在自動售貨機上買礦泉水時就可以得到幾分錢的優惠。但人與數據的聚合在大多數情況下是被動的和不知情的,企業、機構和相關部門則扮演著主導者的角色。

「以數識人」不僅改變著人們的自我認同,而且成為每個人被社會認知的基礎。換言之,企業、機構和相關部門通過智能技術應用所捕獲的「真實世界中數據」正在成為全新的生產手段和治理工具。單從工具理性來看,掌握數據中蘊含的個人身份特徵、行為模式和生活方式,可以讓人的行為根據商業和政治的需求被智能化監測和調控。實際上,在當前兩個合法的負面收割場景——賭場和網路遊戲中,玩家真實的行為數據、情感反應數據得到了大量的研究與測試,所謂上癮行為是智能化的被設計的上癮。應該對這些以引導人的心流和欲望為目的的研究活動本身展開深入的研究,使其道德上的原罪被玩家知曉,以促後者自省。

[1] Finlayson, S. G., Bowers, J. D., Ito,J., Zittrain, J. L., Beam, A. L., & Kohane, I. S. (2019). Adversarial attackson medical machine learning. Science, 363(6433), pp.1287-1289. DOI:10.1126/science.aaw4399

[2] 詹姆斯·布萊德爾:《新黑暗時代:科技與未來的終結》,宋平、梁餘音譯,廣東人民出版社,2019年,第257—258頁。

[3] 斯特凡·韋茨:《搜索:開啟智能時代的新引擎》,任頌華譯,中信出版集團,2017年,第176—177頁。

(原載於《信睿周報》第17期,有刪節。題圖來自Unsplash @lucasgallone)

相關焦點

  • 中國社會科學院段偉文:人和機器要互相理解對方缺陷,協同進化
    但我們還是不得不講清楚:創新永遠是先手,倫理永遠是後手。當初白起埋葬了30萬人,但直到司馬遷才能對這段歷史提出控訴,這就是文明。很多倫理審查、倫理標準不過是一種形式上的審查,實質是一種縱容。段偉文在騰雲峰會「科技大爆炸:AI如何向善」論壇現場世界的智能化測試版與人的危機現在AI所開創的世界還處於「測試版」。
  • 衛生部:未經批准不得擅自開展肖氏反射弧手術
    衛生部新聞辦公室主任、新聞發言人宋樹立主持本次發布會 中國網 胡迪/攝中國網4月12日訊 衛生部今日召開例行新聞發布會,針對肖傳國開辦醫院並將引進他所首創的肖氏反射弧手術這一事件,衛生部新聞辦公室主任、新聞發言人宋樹立表示,深圳市衛生和人口計劃生育委員會已約見肖傳國,告知未經批准不得擅自開展「肖氏反射弧手術或人工體神經—內臟神經吻合術」,這項醫療新技術目前仍處於臨床研究階段,還不允許開展臨床應用。
  • 反射弧的分析
    不知道是否還記得反射弧的組成是哪些,反射弧的組成包括5個部分,感受器、傳入神經、神經中樞、傳出神經和效應器。反射弧的任何一個部分被破壞則反射活動不能完成。再將牛蛙掛在木夾上,用硫酸刺激右後肢腳趾,觀察有無屈曲反射,再用清水洗淨硫酸。
  • 探索與爭鳴|段偉文:控制的危機與人工智慧的未來情境
    但值得追問的是,數據分析作為認識和控制世界的新透鏡不應只是管理和治理的新工具,也應該擔當起個體行為智能化調適的「化妝鏡」和「後視鏡」,成為智能化時代的「自我技術」。在此,人們所關注的不再是組織和社會層面控制的危機與控制的革命,而是對人類而言人工智慧和智慧機器人是否會失控。現在所謂的智能革命時代也可以說是算法決策時代與多智能體時代,從自動交易系統、自動駕駛到自動致命武器系統,從聊天機器人到陪伴機器人與伴侶機器人,一個人類主體與人工智慧體相交互和共同決策的泛主體或混合主體社會即將來臨。
  • 人體神經反射弧有多長?
    人體神經反射弧就是人體完成神經反射動態的神經結構,反射是一個狀態或者是一個過程。人體神經反射弧就是接收到信息的刺激然後再到發生反應的一個過程。我們人體一個完整的反射弧是由多個部分組成的,第一個是感受器,第二個是傳入神經纖維,第三個是神經中樞,第四個是傳出神經纖維,第五個是效應器。
  • 脊髓反射 反射時的測定 反射弧的分析
    Q1:什麼是反射時,在本次實驗中,你準備如何測定反射時?Q2:反射弧的組成有哪些部分?本實驗中哪些步驟驗證了感受器的作用?Q3:  本實驗中哪些步驟是有關傳入神經和傳出神經的研究的?Q4:本實驗如何設置驗證脊髓是反射弧的重要組成部分的?Q5:效應器的作用如何在本實驗中體現?Q6:脊動物指的是?如何製備脊動物?Q7:普魯卡因有什麼作用?其作用痛覺傳入神經纖維和骨骼肌的運動纖維有無時間先後?
  • 實驗5.1 觀察蛙的脊髓反射實驗
    反射是神經活動的最基本方式,是指有機體的中樞神經對外界刺激所做出的有規律的應答。也是一切心理與行為的生物學基礎。反射弧是完成神經發射活動的結構基礎。從感受器接受信息,經傳入神經,將信息傳到神經中樞,再由傳出神經將反應的信息返回到外周效應器。        如果反射弧中的任意一個部件出現故障,反射將不能順利的完成。
  • 肖傳國和他的肖氏反射弧:尷尬了20年的謎
    該手術是利用患者截癱後廢用的體神經,將其與支配膀胱的內臟自主神經吻合,形成一種新的可經皮膚控制排尿的神經反射通路,即人工建立「皮膚-脊髓中樞-膀胱」排尿反射弧,又被稱為肖氏反射弧,建立這一反射弧的手術被稱為肖氏手術。按照設想的治療效果,患者接受手術後,只需撓撓大腿就可以自主控制排尿,從而解決了患者無法自主排尿的問題。
  • 科技倫理研究與教育的時代使命
    原標題:科技倫理研究與教育的時代使命   當今世界正處於新科技革命和產業革命之中,在數據技術、網絡技術促進下,科研成果轉化效率極大提高,物理科技、生命科技、信息科技、智能科技、新材料科技、新能源科技、航空航天科技、兵工科技、新型結構與動力科技、新型製造科技,深空、深海、深地等,發展迅猛。
  • 江南、世界級城市群、大科學裝置共享與數據倫理
    這些舉措和經驗都與當前數字時代與智能時代有關,會涉及到數據倫理學的相關問題。如果將數據倫理學與長三角區域一體化戰略發展結合在一起,那麼數據倫理學就可以實現頂天立地,既能夠繼續理論上的研討,又能夠關注現實問題。基於這樣的想法,筆者想從數據倫理的角度探討長三角一體化戰略實施中可能碰到的難題以及解決路徑。
  • 對大數據時代中研究倫理的認識|20北大新媒體專碩真題解析15
    ,並與其他研究人員分享材料3:2014年,某研究人員設計計算機代碼秘密訪問並記錄了目標網站的數據,然後將這種計算機算法和研究結果寫成論文並交於某著名計算機科學會議綜合以上材料,談談大數據時代研究倫理的認識。
  • 全國百餘名患者起訴肖傳國虛假宣傳肖氏反射弧
    隨著這一事件的逐步推進,國內首家應用和推廣「肖氏反射弧」的鄭州神源泌尿外科醫院出現在公眾面前。記者證實,二七區法院已經接到兩份訴狀,對鄭州神源泌尿外科醫院提起訴訟,要求賠償。7位接受了「肖氏反射弧」手術的患者在京召開新聞發布會,宣布要起訴肖傳國。而這些患者,大部分是在鄭州神源泌尿外科醫院接受的手術治療。
  • 【智能與法】陳姿含:公共算法決策的法律規制(一)
    [作者簡介] 陳姿含(1987-),山東濰坊人,北京理工大學法學院講師,工信部智能科技風險法律防控重點實驗室辦公室主任,法學博士,生物醫藥法學博士,主要研究方向智能科技與法理學。[1] 張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4):64-75.
  • 陳根:智能時代為什麼需要重提人類學?
    投稿來源:陳根智能革命對人類社會的影響日益凸顯。以人工智慧、大數據為代表的數字通用技術正對生產力和產業結構產生革命性影響。新一代信息技術使生產過程更加自動化和智能化,有效地推動傳統產業升級換代,驅動智能經濟快速發展,同時也給人們帶來了效率和便利。
  • 星太奇:古老師不是笑點太高,只是「反射弧」可繞地球一圈!
    星太奇:古老師不是笑點太高,只是「反射弧」可繞地球一圈!圈和請家長,唯一可以逃避懲罰的方法就是用一個笑話逗樂古老師,結果奮豆和小桂子都失敗了,事到如今只能由星太奇出場瞭然而星太奇的笑話結果還是只能逗樂自己,沒想到古老師的笑點這麼高,如今就只剩下一個田雞妹,田雞妹號稱自己不怎麼會講笑話,但還沒講完古老師就笑場了,原來不是古老師笑點高,而是反射弧實在是太長了
  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    然而,為應對突發流行病而迅速實施的技術性解決方案也向技術應用的倫理層面提出了全新的挑戰。我們迫切需要形成新的倫理依據,以確保在後疫情時代人工智慧得以安全而有益地應用於社會的各個領域。(二)新冠危機:技術與倫理的博弈在一場公共健康危機中,對有限資源的分配必然涉及倫理層面的討論,這也是人工智慧的應用在新冠疫情中面臨挑戰的根源。主要問題存在於個人隱私和數據保護、診療決策、數據權限、健康權益這四方面。
  • 全球媒介倫理及技術化時代的挑戰
    一、數位化時代的媒介倫理更為複雜 甘麗華(▲):您的同事託馬斯·庫伯教授曾做過一個很有趣的內容分析:在您簡歷中列出的十幾種著作以及85篇學術論文中,53%的封面或標題包含「倫理」二字。也就是說,您學術生涯中的很大一部分精力放在了媒介倫理研究上。
  • 解局人工智慧技術的倫理風險
    解局人工智慧技術的倫理風險丨數據政治經濟觀察網 劉志毅/文 目前的人工智慧技術發展,主要是以計算機為載體推動自動化技術的發展。基於數據的人工智慧的技術可以幫助我們用各種自動化裝置取代人們的各種生產活動,從而提升社會整體發展效率。人工智慧帶來巨大的效能提升的同時,也會帶來巨大的風險。我們需要去仔細評估AI帶給我們什麼樣的未來?以及人工智慧的風險是如何產生的?
  • 2019《亞太及日本企業人工智慧倫理道德研究》發布
    張亨偉 攝2019《亞太及日本企業人工智慧倫理道德研究》發布 中國居亞洲前列中新網上海6月27日電 (張亨偉)全球科技公司LivePerson26日晚在上海發布2019《亞太及日本企業人工智慧倫理道德研究》報告。結果顯示,中國企業在運用人工智慧(AI)指導方針及管理標準方面位居亞洲前列。