《自然》:4個人工智慧與神經科技的倫理問題,人類如何應對

2020-11-27 澎湃新聞

27位神經科學家與技術專家,臨床醫師,倫理學家和機器智能工程師共同表示,人工智慧和腦-機接口必須尊重和保護人的隱私、身份認同、能動性和平等性。

想像一下這樣一種場景:一名癱瘓男子參加一項腦機接口的臨床試驗,他的大腦被植入一枚晶片,晶片與一臺電腦相連。科學家訓練該電腦來解讀他用大腦預演動作所產生的神經信號。電腦生成的指令能移動一個機械臂。

有一天,這名男子對這個試驗組感覺很不耐煩。他的機械臂奪過一位研究助理的杯子,把它捏碎了,還傷到了那位助理。他道了歉,說這肯定是因為腦機接口裝置故障,但他不得不懷疑自己的不耐煩是否也在這起事故中起到了一定的作用。

這個場景是虛構的,但也說明了我們這個社會或許將要面對的一些挑戰。

眼下,腦機接口技術主要聚焦於臨床療效,比如幫助有脊髓損傷的病人。這項技術已經能讓使用者完成一些相對簡單的運動任務——比如說移動計算機光標,或者控制電動輪椅。更甚者,通過人的功能性核磁共振成像,研究者們已經可以在一個較基礎的水平上解讀人的神經活動,比如說某個個體正在想一個人,而不是一輛車。

或許要再等上幾年甚至數十年,腦機接口和其他神經技術才能成為我們日常生活的一部分。但科技的發展意味著我們正走在通往一個新世界的道路上,在這個世界裡,我們可以解碼人們的精神活動,直接操縱他們的意圖、情感和決策背後的大腦活動機制;人們能直接通過思考和他人交流;強大的計算系統直接連接到人們的大腦上,幫助人類和世界交互,極大地增強他們的智能和體力。

這樣的進步有望變革很多疾病的治療,從腦損傷、癱瘓到癲癇和精神分裂,並能讓人類擁有更好的生存體驗。但這種科技也可能加劇社會不平等,給企業、黑客、政府或者其他任何人帶來剝削和操控大眾的新手段。這或將深遠地影響人類的幾個核心特徵:私密的精神生活,個體能動性,以及對於人類是被身體束縛的實體的理解。

因此,現在就應該認真考慮這可能帶來的後果。

晨邊小組(The Morningside Group)由神經科學家、神經技術專家、臨床醫生、倫理學家和機器情報工程師組成,他們有的來自谷歌和Kernel(一家位於加利福尼亞州洛杉磯市的神經科技初創公司);有的來自國際腦科學項目;有的來自美國、加拿大、歐洲、以色列、中國、日本和澳大利亞的學術和研究機構。

2017年5月,美國國家科學基金會贊助在紐約哥倫比亞大學舉辦了一場研討會,我們在會上討論了神經技術和機器智能的倫理問題。

我們認為現存的倫理規範對這個領域來說是不夠的。這其中包括《赫爾辛基宣言》,一項誕生於1964年的關於涉及人類被試的醫學研究的倫理原則聲明;《貝爾蒙特報告》,1979年由美國國家生物醫學和行為研究被試保護委員會制定的一份聲明;以及今年年初由商業領袖、人工智慧研究者等多方籤署的《阿西洛馬人工智慧原則》。

為了解決這一不足,我們在此就以下四個令人擔憂的領域提出我們的建議:隱私權和知情同意權;能動性和身份;體智增強;以及偏見。不同宗教、種族和社會經濟背景的國家和人民將有不同的需求和願景。因此,各國政府必須建立自己的審議機構,協調社會各界代表進行公開討論,並決定如何將這些指導方針納入政策當中,包括具體的法律和法規。

智能投資

世界上最富有的一些投資人正在向神經科學和AI的交叉領域下注。世界各地有十幾家公司,包括Kernel和伊隆•馬斯克(Elon Musk)今年成立的創業公司Neuralink,都在投資研發一種既能「讀取」人類大腦活動又能向大腦裡「寫入」神經信息的裝置。根據我們的估算,目前以營利為目的的工業界每年在神經技術上的支出已達到1億美元,而這一數字仍在快速增長。

來自非營利部門的投資也很可觀。自從2013年開始,僅僅在美國腦計劃(US Brain initiative)一項上,就有超過5億美元的美國聯邦政府資金投向了神經技術的研發。

目前,神經科技的發展已經取得了矚目的成績。一名因為肌萎縮性脊髓側索硬化症(ALS)而癱瘓的神經科學家,使用一個腦機接口來管理他的實驗室,撰寫科研經費申請和發送郵件。

與此同時,杜克大學的研究者們表明,三隻被植入了電極的猴子能組成一個「腦力網」,合力移動一個虛擬臂。如果這些信號能通過網絡無線傳輸的話,這些設備在千裡之外亦能工作。很快這些最多只能刺激和讀取幾十個神經元活動的粗糙設備就會被取代。

今年早些時候,美國國防部高級研究計劃局(DARPA)發起了一個叫做神經工程系統設計(Neural Enginneering System Design)的項目,計劃在四年內獲取美國食品和藥物管理局的批准,研發一種可以同時利用一百萬個電極監測大腦活動並能選擇性地刺激至多10萬個神經元的人腦裝置。

與此同時,谷歌、IBM、微軟、臉譜、蘋果和無數初創公司都在建造更加複雜精細的人工神經網絡,這些神經網絡在有明確定義的輸入和輸出的工作項目上,表現早已超過人類。

舉例而言,去年華盛頓大學的研究者證明,谷歌的FaceNet系統能從一百萬張人臉中辨認出正確的那張。另一個有著相似神經網絡構架的谷歌系統,能夠辨認出一張街景圖拍攝於何處,表現遠遠超過具有豐富旅遊經驗的人類。這兩個例子證明了這項技術的普適性。

八月,微軟宣布在某些指標上,他們用於識別會話性言語的神經網絡的能力已經能和經過訓練的專業人士匹敵,而後者有機會倒帶重聽對話中的詞句。七月,德國弗萊堡大學的研究者利用腦電圖(EEG)數據展示了神經網絡如何可用於解碼與計劃相關的大腦活動,從而可被用來控制機器人。

幾乎可以肯定,當我們更進一步地理解了真實的神經網絡是如何工作的之後,未來的神經網絡甚至會比這些例子更加強大。目前使用的人造網絡的靈感來自於50多年前的大腦迴路模型,這些模型基於被麻醉的動物單個神經元活動的記錄。

在今天的神經科學實驗室裡,因為光學方法、計算、分子工程和微電子技術的進步,研究人員可以監控和操縱活著且清醒著的動物成千上萬的神經元活動。

我們已經與機器緊密相連。今年,谷歌的研究人員計算出用戶每年平均接觸手機的次數接近100萬次(數據未發表)。人類的大腦控制著聽覺和視覺系統來解讀聲音和圖像,然後命令肢體來持握和操縱我們的設備。然而,神經科技和人工智慧的融合發展將會帶來一些質的不同——人類大腦與機器智能直接連接,繞過大腦和身體正常的感覺運動功能。

四項要點

神經技術若要在普通消費者市場裡興起,這些設備必須是非侵入性的,風險很小,而且部署費用要低於目前的神經外科手術。現在,那些正在開發類似設備的公司必須對其產品負責,應以一定的標準、最佳實踐和道德規範為指導。

在此,我們強調有四個方面的問題需要我們立即採取行動進行應對。儘管我們是在神經技術的語境下提出這些問題的,但它們也適用於人工智慧。

隱私權和知情同意權。從人們的數據軌跡中可以獲取非常多的個人信息。例如,麻省理工學院的研究人員在2015年發現,通過研究人們在個人設備上的鍵盤輸入模式,精細地分析他們的運動行為,使得早期診斷帕金森氏症變為可能。2017年的一項研究表明,測量人類的運動模式,比如在日常活動中使用智慧型手機的人的運動模式,可以用來診斷阿爾茨海默病造成的認知障礙的早期症狀。

如果利用神經信息的話,比如參考那些與特定注意力狀態相關的神經元的活動模式信息,用於投放廣告、計算保險費或匹配潛在伴侶的算法就會變得更加強大。與網際網路連接的神經裝置打開了個人或組織(黑客、公司或政府機構)追蹤甚至操縱個人精神體驗的可能性。

我們認為公民應該有能力和權利保護他們的神經數據隱私(參見「主觀能動性和身份認同」)。我們建議採取以下步驟來保障這一點。

對於所有的神經數據,默認都應能選擇不分享,這一點應當得到嚴格保護。如今人們很容易把他們的隱私權拱手送給提供各種服務(比如網絡瀏覽,社交媒體或娛樂)的商業機構,而從未真正認識到他們交出的究竟是什麼。

如果默認選項就是拒不分享的話,則意味著神經數據在大多數國家都會被以和器官或生物組織相同的方式對待。如果個人要從任何設備共享神經數據的話,他必須明確地選擇和確認這一點。其中將涉及一個安全保障過程,包括一個知情同意程序,明確規定誰將使用數據,目的是什麼,以及使用多長時間。

即使實施這種方法,根據許多自願分享者的神經數據,再加上來源於網際網路搜索、運動監視器等等多種渠道的大量非神經數據,也能得出關於那些選擇不分享的人們的「可靠」結論。為了遏制這一問題,我們建議對神經數據的銷售、商業轉讓和使用進行嚴格的管制。

這樣的法規也將限制人們放棄自己的神經數據或將神經活動直接寫入自己的大腦中,從而換取物質報酬,可能類似於禁止出售人體器官的立法,比如1984年的美國《國家器官移植法案》。

另一重保護措施是限制神經數據的集中處理。我們提倡使用類似差分隱私或者聯合學習的計算技術,來保護用戶隱私(參見「保護隱私」)。使用其他專門用來保護個人數據的技術也會有所幫助。

例如,基於區塊鏈的技術可以讓數據能被跟蹤和審計,而「智能合同」(Smart contracts)則可以對數據的使用方式進行透明的控制,而不需要集權。最後,開放數據格式和開原始碼可以讓我們更透明地知道什麼信息將保持私密,而什麼信息會被傳遞分享出去。

主觀能動性和身份認同。有些人通過在腦內植入電極接受深部腦刺激,他們報告說感覺自己的身份和能動性被改變了。

在2016年的一項研究中,一個曾用過大腦刺激器來治療抑鬱症長達7年的人在一個焦點小組中報告說,他開始懷疑他與他人互動的方式,例如說一些他回過頭來認為很不合適的話,究竟是因為電極刺激,他自己的抑鬱,還是反映了一些關於他自己的更深層次的東西。他說:「這一切模糊到了一起,說實話,到最後我都不確定我是誰了。」

神經科技可以很明顯地擾亂人們對於身份和能動性的認識,從而動搖關於自我和個人責任的核心認知,不論是法律責任還是道德責任。

也許通過「自動完成」或「自動更正」功能,機器學習和大腦接口設備能夠更快地實現意圖和行動之間的轉換,在這種情況下,人們最終可能會做出一些他們自己難以接受的事情。如果人們能夠通過自己的思想長距離地控制設備,或者幾個大腦被連接到一起工作,那麼我們對自身身份和行為的理解將會被擾亂。

隨著神經技術的發展,企業、政府和其他各種機構開始努力為人類賦能,但是個人身份認同(我們的身體和精神的完整性)以及能動性(我們選擇行動的能力),必須被作為基本人權保護起來。

我們建議在國際條約(如1948年的《世界人權宣言》)中加入保護這類權利的條款(「神經權利」)。然而,這可能還不夠,國際宣言和法律只是各國之間的協議,即便《世界人權宣言》也沒有法律約束力。

因此,我們主張制定一項國際公約,界定與神經技術和機器智能有關的被嚴格禁止的行為,類似於2010年《保護所有人免遭強迫失蹤國際公約》所列的禁令。一個對應的聯合國工作組可以審查所有成員國的遵守情況,並在需要時建議實施制裁。

類似的宣言還必須保護人們接受教育的權利,讓他們能了解神經技術可能帶來的認知和情感方面的影響。目前,知情同意書通常只關注手術的生理風險,而不是一個設備可能對情緒、個性或自我感知帶來的影響。

體智增強。如果一個人的身體或大腦功能與大多數人不同,則常常飽受偏見之苦。人們將來面臨的壓力可能包括採用增強型神經技術,例如允許人們從根本上增強忍耐力或感覺或智能的神經技術,這可能會改變社會規範,引發公平享有方面的問題,並產生新種類型的歧視。

此外,不難想像軍備競賽也會發生在體智增強領域。近年來,我們聽聞美國國防部高級研究計劃局和美國情報高級計劃局(IARPA)的工作人員在討論為士兵和分析師增強心智能力(「超級智能特工」)的計劃。這些計劃將被用於作戰目的,也會被用於增強破譯數據流的能力。

由於預測哪些技術會對人類生活產生負面影響非常難,所以難以非常清晰地劃定界限。儘管如此,我們仍要敦促在國際和國家層面制定一些指導方針,對可實施的增強型神經技術加以限制,並定義它們被可以使用的場景——就像我們對人類基因編輯所做的限制一樣。

某些文化比其它文化更注重隱私和個性。因此,必須在尊重普世權利和全球性準則的同時,在具體文化背景下做出監管決策。此外,對某些技術的一刀切或許只會將其推到地下運行,所以在制定具體的法律法規時,必須組織舉行論壇來進行深入且公開的討論。

過去有很多建立國際共識、將公眾輿論納入國家層面科學決策中的先例,它們都值得借鑑。例如,在第一次世界大戰之後,1925年的一次會議促成了《日內瓦協議》的起草和締結,該協議禁止世界各國使用化學武器和生物武器。

同樣地,在第二次世界大戰之後,聯合國原子能委員會(UN Atomic Energy Commission)成立了,旨在管控用於和平目的的原子能,控制核武器的擴散。

尤其值得注意的是,我們建議嚴格管制被用於軍事目的的神經技術。出於顯而易見的原因,任何禁令都應該是全球性的,並且應當是由聯合國牽頭的委員會發起的。儘管這樣的委員會和類似的過程可能無法解決所有關於增強型神經科技的問題,但它們提供了一種最有效的模式,能讓公眾知道這種技術必須被限制,也能讓世界各國廣泛地投入到這種技術的發展和實施中來。

偏見。當科學或技術決策是基於一套狹隘的系統、結構或是社會概念和規範的時候,由此產生的技術可能會使某些群體獲得特權,而使另一些群體受害。2015年的一項研究發現,谷歌的廣告算法展示給女性用戶的招聘職位要比給男性展示的待遇低。

類似地,ProPublica的一項調查顯示,美國執法機構使用的算法錯誤地預測,黑人被告比擁有類似犯罪記錄的白人被告更有可能再次犯罪。這種偏見甚至可能會被嵌入到神經裝置中。事實上,研究過這類案例的研究人員已經表明,要以一種數學嚴謹的方式來嚴格定義公平是非常困難的。

工業界和學術界已經在討論一些對抗技術偏見的實際步驟。這樣的公開討論和辯論是極有必要的,不論是對於定義有問題的偏見,還是對於定義更普世的「常態」來說都是如此。

我們主張讓對抗偏見的對策成為機器學習規範的一部分。我們還建議可能的用戶群體(特別是那些已經被邊緣化的用戶群體)在設計算法和設備時就大膽發聲,確保偏見在技術開發的第一個階段就得到處理。

負責任神經工程學

提出這些建議是為了呼籲工業界和學術界承擔起隨著這類神經科技設備和系統而來的相關責任。為此,他們可以借鑑之前已經為負責任創新而制定出來的一些框架。

除了之前提到的幾點指導方針之外,英國工程和物理科學研究理事會也提出了一個框架來鼓勵創新者「預測、反思、參與和行動」,推動符合公共利益和社會期望的科學和創新。

在人工智慧領域,IEEE標準協會在2016年4月創建了一個全球倫理倡議,目的是將倫理融入到所有人工智慧和自主系統的設計流程中。

歷史表明,在企業界,追逐利潤往往會凌駕於社會責任之上。雖然在個人層面上,大多數技術專家的目的都是想要造福人類,但是他們仍有可能碰到自己未曾準備好要去面對的複雜倫理困境。我們認為,通過將相關倫理準則引入到工業界和學術界中來,可以改變業界普遍的思維模式,增強設備製造商的應對能力。

第一步就是讓倫理成為工程師、其他技術開發人員和學術研究人員加入公司或實驗室時的標準培訓的一部分。教育員工更深入地思考如何追求科學進步,實施有望建設社會而非破壞社會的策略。

這種方法基本上遵循了醫學專業正在使用的思路。醫學生接受的教育包括病人病情保密、不傷害原則、行善原則和公正原則,他們還要遵守希波克拉底誓言,堅持這個職業的最高道德標準。

神經技術可能帶來的臨床效益和社會效益是巨大的。要想獲得這些效益,我們必須尊重、保護和支持人性中最珍貴的品質,以此指導神經技術的發展。

(本文原載於微信公眾號「Nature自然科研」, 原標題:4個AI與神經科技帶來的倫理問題,我們該如何應對?澎湃新聞經授權後轉載,未經允許不得二次轉載。)

(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)

相關焦點

  • 會聚技術的倫理挑戰與應對
    提升人的能力,進而按照人的願望重塑世界一直是人類的夢想。無論是英雄史詩中蘇美爾國王吉爾伽美什追求使人長生不老的海草,還是希臘神話中伊卡洛斯想藉助於翅膀飛出小島的傳說,都反映出人類力圖突破自然的限制,實現自由的渴望。
  • 人工智慧倫理三問:如何對待機器和自身的關係?
    (資料圖片) 當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷發展,它引發的倫理爭議也不斷出現 近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
  • 人工智慧面臨倫理困境
    > 關鍵詞:人工智慧;谷歌;機器人;倫理意識;無人駕駛汽車 作者簡介:   日前,已進行測試多年的谷歌無人駕駛汽車發生事故,致人受傷,這一事件再次將人工智慧牽涉的倫理問題推到風口浪尖。
  • 美科學家:當人工智慧遇上倫理道德
    2 號 圖片來源:Joseph Bibby   在近日發表於《自然》雜誌上的一篇評論文章中,4位計算機領域的研究領軍者分享了他們對該領域的思考。   在近日發表於《自然》雜誌上的一篇評論文章中,4位相關領域的研究領軍者分享了他們對智能機器社會風險的擔憂和解決方案。   美國加州大學伯克利分校的計算機科學教授Stuart Russell認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,「這不是我們所夢想的未來場景」。
  • AI倫理無法迴避的5個問題:生物進化是否有方向?
    演講的題目是「人工智慧倫理規則制定與生物進化方向的關係」。本文詳細闡述了制定人工智慧倫理需要回答的5個問題,提出「生物進化是否有方向「能否達成共識,將是未來制定人工智慧(AI)倫理能否形成規範的關鍵。根據「2017人工智慧:技術、倫理與法律研討會」的演講整理的研究報告如下:
  • 如何與AI談倫理?
    那個時代,有不會造成擁堵的無人駕駛汽車、在家可享受的未來醫療、與人類實時互動的智能家居、沉浸式體驗的歷史事件甚至是與人工智慧的愛情但是,自人工智慧誕生以來,「人類會不會被毀滅」「如果人類放手不管,不考慮道德倫理問題,計算機系統的演化會不會讓我們懊悔不已」等這樣的問題總是讓我們更加審慎地對待人工智慧的發展。
  • 上海交通大學科學史與科學文化研究院舉辦「人工智慧、倫理與文化...
    指出道德產生的先決條件是自我意識,而認識上的困境體現在缸中之腦思想實驗中,人工智慧在一定程度上亦是如此。缸中之腦最早來源於笛卡爾的我思故我在。作為主體的存在首先要有自我意識,針對自我意識才能談論道德。但是目前為止,人工智慧尚未具備自我意識,因此無法談論人工智慧的道德問題。那麼,人工智慧如何講述道德問題?人工智慧處理人類工作,而人的活動內含道德規範。
  • 科學研究怎樣守好倫理之門
    近些年,隨著基因編輯、人工智慧等新興科學技術快速發展,科學技術深刻地改變了甚至顛覆了自然進化法則、人類的生存方式、人類與自然的關係,擴展了人類對未來的想像和擔憂。倫理問題越來越凸顯,倫理的規制也越來越不可或缺。  中國科學院院士許智宏:近幾年,基因編輯技術在快速發展和優化的同時,其所帶來的倫理、安全、監管等問題也引發了廣泛討論。
  • 上海交大科學史與科學文化研究院舉辦「人工智慧、倫理與文化高端論壇」
    但是目前為止,人工智慧尚未具備自我意識,因此無法談論人工智慧的道德問題。那麼,人工智慧如何講述道德問題?人工智慧處理人類工作,而人的活動內含道德規範。機器在運行中必然存在著道德規範,而規範設計來自人工智慧背後的編寫者。那麼到底預設怎樣的道德?倫理學家進行多方討論,宗教道德難以應用,世俗標準成為選擇。如果出現問題,即使用功利主義標準,那麼大多數該如何定義?
  • 「管理科學」人工智慧體引發的倫理困境
    人工智慧的大範圍促使許多事件或案件出現主體判別困難的倫理問題。比如,無人駕駛車輛的突發情況急剎車問題,人工智慧的每一步都由算法規定,而算法確是由人來設定的,所以在突發問題的責任主體追究方面必然會出現倫理問題。同樣,在情感方面也存在倫理問題,當人工智慧的智能特徵越來越明顯,類人化程度越來越高,甚至產生了自主意識後,人類與人工智慧之間的感情關係將會引發新的倫理問題。
  • 歐盟人工智慧倫理準則概要
    為了有效應對這些挑戰並充分利用AI帶來的新機遇,歐盟委員會於2019年4月8日以「建立對以人為本AI的信任」為題,發布了歐洲版的AI倫理準則,期望建立「以人為本、值得信任」的AI倫理標準,不斷促進社會公眾接受AI技術、應用AI技術。
  • 《自然》:人類胚胎基因改造不能全禁,但需要一場倫理大討論
    《自然》:人類胚胎基因改造不能全禁,但需要一場倫理大討論 澎湃新聞記者 陳詩悅 2015-05-08 19:11 來源
  • 如何規範人工智慧軍事應用?一文帶你透視美軍的人工智慧倫理準則
    作為美軍推出的世界上第一份軍事領域的人工智慧倫理準則,該報告對於研究美軍和人工智慧軍事倫理規範具有重要參考價值,故將其重要內容編譯如下,以饗讀者。01、為什麼美國防部要制定軍事人工智慧倫理準則問題?在全球範圍內,公共部門、私營企業、學術界和公民社會正在就人工智慧的前景、危險和如何適當使用等問題展開持續辯論,國家安全也是爭論的一個重要方面。現在是時候在人工智慧興起的早期階段、在事故發生之前,就人工智慧發展的規範和在軍事環境中的使用進行嚴肅的討論。美國《2018年國防戰略》要求國防部加大對人工智慧和自主性的投資,為美國提供具有競爭力的軍事優勢。
  • 觀點要覽|倫理學篇:理性分析疫情應對中暴露出的倫理問題
    理性分析疫情應對中暴露出的生命倫理、公共倫理問題作為社會道德傳播者、建設者和守護者的倫理學人,積極從人類社會的倫理規範和道德價值層面執筆發聲,以高度的社會責任感加入到抗擊疫情的行動中,理性分析疫情應對中暴露出的生命倫理、公共倫理等問題。生命倫理問題是新冠肺炎防控中最初也是最本源的問題。
  • 虛擬與現實,人工智慧時代的倫理真相
    人工智慧賦能的實體經濟,為生產和生活帶來革命性的轉變,據中國電子學會預測,2022全球人工智慧市場將達到1630億元,2018-2022年CAGR達31%。在人工智慧大勢所趨的背景下,人工智慧面對的監管挑戰和倫理困境就成了一個全球性難題。普京曾經指出:「人工智慧是未來,但也有難以預測的威脅。
  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    然而,為應對突發流行病而迅速實施的技術性解決方案也向技術應用的倫理層面提出了全新的挑戰。我們迫切需要形成新的倫理依據,以確保在後疫情時代人工智慧得以安全而有益地應用於社會的各個領域。(一)人工智慧治理的一般倫理原則及局限正如國際生物倫理委員會(IBC)和世界科學知識與技術倫理委員會(COMEST)在關於新冠疫情的聲明中所強調:「手機、社交媒體和人工智慧等數位技術能夠監測、預測和影響疾病的傳播和人類行為,從而在應對流行病方面發揮重要作用。
  • 人工智慧時代的就業問題及應對
    瑞士日內瓦高級國際關係學院教授理察·鮑德溫經過調查分析後提出,每一次重大技術變革都會促成社會大轉型(The Great Transformation),而社會必須通過某種必要調適甚至是徹底的改變來應對轉型期的各種問題。本文將簡要討論為什麼說人工智慧時代已經拉開序幕、隨著人工智慧時代的到來就業將會受到何種影響以及可以採取哪些應變之策等問題。
  • 科技倫理是科學造福人類的導航儀
    科技倫理是理性的產物  科技倫理是科技創新和科研活動中人與社會、人與自然以及人與人關係的思想與行為準則,它不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應用中的倫理。例如,手機App下載的同意條款和醫院治病時的知情同意等。如果把人類文明的演化當作一個永無止境的徵程,人類奔向更高文明的原動力就是科技和創新。
  • 工程視野下的腦計劃及其倫理問題思考
    ,它主要是指認識自然和改造世界的「有形」的人類實踐活動[9]。該計劃使用大規模、跨學科的研究方法,由12個子項目組成,例如小鼠大腦組織、人類大腦組織、高性能分析與計算、倫理與社會等[11]。2016年2月,澳大利亞啟動澳大利亞腦計劃,目標是探索神經系統如何產生、編碼、檢索信息、影響複雜的行為、應對內部和外部的變化,有4個研究內容,例如創建腦機接口,通過記錄和控制大腦活動從而恢復功能;了解全生命周期學習的神經基礎等[12]。
  • 歐盟發布人工智慧倫理準則,希望以「歐州優勢」邁向全球標準
    4月8日(星期一),歐盟委員會發布了這個具有歷史意義的文件,旨在通過確保(例如)有關歐盟公民的數據不會被用來傷害他們來增進對人工智慧的信任。此舉被普遍認為是推動邁向一個全球相關標準的重要舉措。《人民日報》2019年04月11日第17 版未來如何決定人工智慧是否對社會有益?歐盟的這套準則留下了一個懸而未決的問題。