數據風險、算法黑箱怎麼破?這家創企用AI化解安全難題

2020-12-17 澎湃新聞

原創 心緣 智東西 收錄於話題#AI安全1個

數據隱私、算法攻防、道德倫理,AI安全難題如何破解?

作者 | 心緣

編輯 | 漠影

「刷臉」時代,安全何在?

此前據央視調查,在某些網絡交易平臺上,只花2元就能買到千張人臉照片,5000多張人臉照片標價還不到10塊錢。今年9月,廣西南寧的十幾名業主在不知情的情況下,被一位置業顧問以刷臉賣房的方式騙走了逾千萬元。

從手機號碼、身份證號、地址等文字信息,到指紋、人臉等生物信息,再到線上搜索、消費、駕駛路線等行蹤的數據信息,當人們越來越多的數據被採集,當AI算法與生活的聯繫更加緊密,人們愈發擔憂數據洩露與算法被攻擊所引發的安全風險。

如今飛速發展的人工智慧(AI)應用中,依賴海量數據、不具有確定性的深度學習算法仍是主旋律。在上周三的2020第三代人工智慧產業論壇上,清華大學人工智慧研究院院長、中國科學院院士張鈸教授的一番言辭發人深省。他提到全球前40個AI獨角獸的估值大約分布在70-500億區間,但銷量均基本不到估值的10%,也就是沒有找到市場,問題出在什麼地方?張鈸院士認為,這裡存在著算法與數據的不安全性。

縱然技術無罪,損失誰來買單?引發新一輪安全憂慮的AI,也可以成為破解安全難題的良藥。

本文福利:人工智慧基礎設施、設計研發以及融合應用面臨的安全風險日益凸顯。推薦精品研報《人工智慧安全框架(2020年)》,可在公眾號聊天欄回復關鍵詞【智東西139】獲取。

01.

數據隱私、算法攻防、道德倫理……AI安全問題關山難越

在金融、醫療、公共安全等AI應用場景中,需要用到的數據往往涉及個人隱私信息,而數據的簡單明文傳輸和利用很可能導致隱私洩露,以至造成嚴重後果。僅是在2020年,就發生過多起因個人信息洩露造成的詐騙案。

除了數據安全外,算法安全問題也不容小覷。

由於AI的決策邏輯和鏈路天然存在大量不確定性,如果不能很好地量化這種不確定性、提供可理解的決策邏輯和依據,一旦AI決策任務出錯,可能引起巨大風險,乃至威脅生命安全。

要讓每個決策具備極高的可靠性,更進一步是算法攻防安全。

算法普遍存在的「對抗樣本」特徵,導致AI系統存在被惡意攻擊的風險。基於對抗樣本技術,黑客可繞過整個網絡和系統安全防禦機制,僅通過簡單偽裝,就從AI算法引起的新漏洞讓應用出錯。

比如戴上一副「對抗樣本」眼鏡,就能破解手機或智能門鎖的人臉識別解鎖,或是偽裝成他人完成銀行和政務系統的身份認證,竊取財產。

穿著「對抗樣本」T恤,亦可逃開監控,在目標檢測算法下宛如來去自如、不被知曉的「隱形人」。

此外,AI的一些應用場景還涉及道德倫理問題。比如用深度偽造技術製作的「換臉」視頻,已經被一些不法分子用到黑產;再比如AI信貸風控模型中存在對於特定地區通過率較低的「倖存者偏差」,人臉識別的種族歧視等一系列算法公平性問題,以及技術濫用引發金融欺詐,甚至是政治宣傳引導輿論等等。

當惡性AI安全事件頻現,如何平衡AI發展與安全保護?面對公眾和企業日益關注的數據隱私保護、金融反欺詐、檢測防禦算法漏洞、精準甄別AI偽造素材等難題,一家名為瑞萊智慧RealAI的初創公司提出了一系列保障AI落地安全性的有效方法。

02.

用AI防火牆、編譯器解鎖AI安全難題

瑞萊智慧RealAI孵化自清華人工智慧研究院,深耕安全、可靠、可信、可擴展的第三代人工智慧,已經推出涉及隱私保護、AI「防火牆」、深度偽造檢測工具等多類涉及AI安全的平臺產品。

在瑞萊智慧RealAI CEO田天看來,當在應用中碰到技術難題,與其見一個解決一個,不如見一個問題就看到一類問題,並通過底層技術框架、平臺的突破,助力產業的升級。

經過兩年多的發展,RealAI第一次公開展示其基於第三代人工智慧技術手段的AI原生基礎設施藍圖,覆蓋算法可靠、數據安全、應用可控三個方面的安全難題。

1、提高算法可解釋性的機器學習建模平臺

針對金融等場景迫切需要更加可解釋的建模任務的需求,RealAI去年推出RealBox可解釋機器學習建模平臺,目前已在多家金融機構實際使用,並通過了中國人工智慧產業發展聯盟的首批可信AI認證。

基於可靠可解釋的AI平臺和算法,可以使得智慧理財產品風險可控,提高資產配置和利用效率。

2、增強算法安全的商用AI殺毒軟體和防火牆

面對算法可靠問題,RealAI開發了業內首個商用人工智慧安全平臺RealSafe。

這一平臺相當於是針對AI算法的殺毒軟體和防火牆,能對AI安全性進行全面的標準化檢測和增強,已檢測發現了一系列市場上主流AI產品的安全隱患,並提供了多種相應的防禦升級措施。整個檢測過程全界面化操作,用戶無需具備專業的模型安全算法知識和編程開發經驗。

大幅升級後的RealSafe2.0版本,將可評測的應用場景從人臉識別模型拓展到了目標檢測、圖像分類模型;在檢測抗對抗樣本攻擊的安全性基礎上,新增針對圖像分類模型的後門漏洞自動化檢測等功能;並提供了對抗樣本去噪方法、對抗樣本檢測方法、對抗訓練方法等安全性提升方案。

在AI安全平臺的保護下,企業可提供更加安全、受保護的刷臉支付系統,從而使得刷臉門禁、刷臉門鎖等產品更為安全可用。目前,RealSafe平臺已在工信部重大建設項目以及某電網公司落地應用,未來將集成更多安全風險的檢測能力。

3、解決數據安全問題的隱私保護AI編譯器

面對數據安全問題,尤其為解決AI應用過程中的數據孤島難題,RealAI最新推出業內首個編譯級的隱私保護機器學習平臺——RealSecure隱私保護機器學習平臺(RSC)。

該平臺結合了人工智慧、密碼學、分布式系統三大領域的技術突破,其核心模塊「聯邦AI編譯器」能夠自動將普通機器學習算法程序轉換為分布式、隱私安全程序,大幅降低隱私安全的AI商業應用門檻。

得益於底層編譯級的能力,該平臺通過實現「算子盤」和「數據流圖」兩大功能,具備三大性能優勢:

(1)訓練速度實現30倍以上提升:在加密算法方面應用全同態技術,打破半同態技術功能與性能上的桎梏,性能提升2-3個數量級;在AI算法優化方面,收斂速度更快,迭代次數少。

(2)白盒可驗證的安全性:以首創數據流圖形式,將所有中間計算過程安全透明的展現給用戶,內部算子執行完全公開,實現安全透明的隱私保護通訊協議。

(3)易用性:擺脫重複改寫的繁瑣工作,處理方式由「雕版印刷」轉變為「活字印刷」。

這使得金融等場景在合規、隱私保護的前提下,可實現基於多方數據聯合建模,從而顯著提高智能風控、反欺詐、小微普惠、精準營銷、AI醫療等智慧決策應用的效果。

4、精準判斷AI深度偽造內容的檢測工具

面對應用可控問題,RealAI推出DeepReal深度偽造檢測工具和一體機,能高效精準地判斷視頻、圖片等內容素材是否是經過AI偽造生成的,避免相應輿情。DeepReal入選了國家工信安全中心人工智慧優秀產品,基於其核心技術,RealAI獲得了GeekPwn2020年深度偽造檢測項目冠軍。

這一深偽檢測能力,可以幫助公共安全部門,提高對各個渠道虛假內容的管控能力,防範相應傳播風險。

03.

針對不同行業的差異化智能方案

在商業模式上,RealAI將其AI基礎能力與對行業業務的理解、對產業智能化升級方法論的認識做結合,打造了針對不同行業的智能化產品和解決方案。

例如在金融風控場景中,數據有偏問題是一個突出問題,傳統建模過程中用到的數據都是經過層層篩選、最終跑過整個借貸業務流程的「好」樣本,以及他們的貸後表現標籤。而如何評估沒有貸後表現的拒絕客群、挖掘其中的優質客戶一向是行業難題。RealAI採用自研半監督回撈模型,大幅提高對拒絕客群質量的識別能力,實現撈回客群與原風控放款客群風險一致下,幫助金融機構零成本提升10%的資產規模。

在理財場景中,需要對資產未來的流動性做出判斷,以提高資產配置效率。RealAI使用貝葉斯深度學習,大幅度提高流動性預測的精度,同時降低了不確定性,避免重大預測失誤,從而助力實現理財產品的動態管理模式,為基金創造了更多的可用投資資金,提高基金競爭力。

在傳統基建場景中,大壩結構安全性預測需要根據各類檢測器數據,來預測結構安全隱患。由於數據中噪聲大,存在缺失,RealAI通過生成式模型解決數據缺失問題,參數相互補全與異常檢測等,可大幅提高預測準確率。

在刷臉支付場景中,人臉識別技術往往受到對抗樣本等攻擊行為的威脅,RealAI用AI對抗攻擊算法全面發掘人臉模型漏洞,並提供相應的防禦提升方案,從而幫助提供更安全的刷臉支付系統。

瑞萊智慧RealAI CEO田天透露道,RealAI的下一步,將從研究、平臺和產業賦能三方面持續發力,基於第三代人工智慧技術打造AI原生基礎設施,並提供針對行業的智能化產品和解決方案,加速安全、可信、可靠的產業智能化升級。

04.

為什麼需要邁向第三代人工智慧?

如何打破現階段AI技術的局限,兼顧人們對數據安全和算法可靠的訴求?如何從基礎研究層面補齊算法短板,發展出安全、可靠、可信的AI?這是許多AI產學界學者專家,正著力尋找的答案。

今年9月,清華大學人工智慧研究院院長、中國科學院院士張鈸教授在《紀念《中國科學》創刊 70 周年專刊》上發表署名文章,首次全面闡述第三代人工智慧的理念。

在2020第三代人工智慧產業論壇中,張鈸院士再次詳細解讀了對於第三代人工智慧的觀點。他認為,數據安全性主要涉及兩點,一是智慧財產權保護,二是隱私問題;算法安全性是傳統信息處理中不突出的,是人工智慧特有的。

為什麼算法不安全?本質性問題有三點。

第一,向量是信息的展現形式,但如果應用到涉及語義的場景,向量跟語義空間映射是多對一。

第二,語義空間不是距離空間,是離散的層次空間,而向量是一個連續的空間,兩者根本對不上。比方說馬和石頭在語義上的相似性很低,但到了特徵空間,兩個詞就可能距離很近,非常容易受到幹擾的攻擊,致使算法推廣能力很差,應用場景受到很大的限制。

第三,缺少語義的基於條件概率建模的「黑箱」學習方法,對噪聲攻擊的安全性很差。傳統信息處理噪聲攻擊,只能降低質量、清晰度,現在攻擊算法可以讓機器把一張馬的照片看成一塊石頭。如果算法不安全、不魯棒,則難以實際應用。

這三條導致當前AI算法存在推廣能力差、很脆弱、易受噪聲幹擾、會犯嚴重錯誤等缺點。要解決這些問題,則需建立魯棒和可解釋的AI理論,發展安全、可信、可依賴、可擴展的AI技術,提升創新應用,也就是邁向第三代人工智慧。

第三代人工智慧的基本思路是將第一代人工智慧的知識驅動和第二代人工智慧的數據驅動結合,充分利用知識、數據、算法和算力這不可或缺的4個要素。張鈸院士認為,從目前我國發展情況來看,我們更要強調知識。

如感興趣關於第三代人工智慧的更多技術思路,推薦閱讀《邁向第三代人工智慧》全文。

文章連結:http://scis.scichina.com/cn/2020/SSI-2020-0204.pdf

05.

人工智慧安全框架(2020年)藍皮書解讀

在工業和信息化部網絡安全管理局的指導下,中國信息通信研究院聯合瑞萊智慧、百度、騰訊、360、中科院、新工所等等多家機構,聚焦當前AI基礎設施及設計研發階段面臨的安全風險,撰寫了《人工智慧安全框架(2020年)》藍皮書。

據中國信通院安全所信息安全研究部主任魏薇介紹,這本藍皮書的主要創新體現在三方面:一是針對AI風險視圖缺失問題,描繪了AI全生命周期的風險地圖;二是針對AI安全框架全球缺失的情況,提出了AI安全框架;三是針對AI安全技術實施缺乏指導的問題,撰寫了AI安全技術藍皮書。

該藍皮書主要包括四個部分,第一部分介紹了AI的安全風險和技術現狀,第二部分提出了AI安全框架,第三部分對詳細解讀如何實施AI安全技術,第四部分挑選三個重點領域介紹了AI重點應用的安全防護實踐。

藍皮書從六個方面提出AI安全目標,包括應用合法合規、功能可靠可控、數據安全可信、決策公平公正、行為可以解釋、事件可以追溯等。

魏薇說,在AI安全的這些技術熱點當中,聯邦學習、差分隱私機器學習和深度偽造,這幾個技術相對來說商用步伐最快,現在已經有工業及產業級的產品,並且在部分領域開展一些試點應用。對抗樣本攻擊和防禦、模型和解釋性等,目前主要處於學術研究轉為商用應用的探索期,是全球包括麻省理工等知名高校以及微軟谷歌等科技巨頭競相布局的一個重點方向。

總體而言,魏薇認為AI安全技術較多處於研究實驗試用階段,針對AI應用的成熟安全產品和服務體系目前相對較少,產學界都還在探索,希望在AI安全技術領域能有更多突破和貢獻。

06.

結語:AI產業正尋求新發展思路

在瑞萊智慧RealAI CEO田天看來,繼承自網際網路時代的經驗,當前AI基礎設施建設的重心集中在數據中心、算力平臺上,主要解決AI「溫飽」問題,為AI提供基礎運算環境。但隨著數據積累受場景限制、現有算力逼近極限,由大數據、大算力等外部驅動力帶來的AI產業「第一增長曲線」開始放緩。

而實現算法可靠、數據安全、應用可控這三項能力的AI原生基礎設施,將有助於驅動AI產業的「第二增長曲線」,在保證相同的數據、算力條件下,打開AI產業化全新市場空間。他提到,RealAI的目標就是補全AI原生基礎設施體系。

如今AI安全的重要性日益激增,在官方報告中也被越來越多提及,我們期待看到通過更多產學研界的開放式協作,探索更多有效的AI安全技術方向,為AI產業進一步拓展良性發展與落地空間。

本文福利:人工智慧基礎設施、設計研發以及融合應用面臨的安全風險日益凸顯。推薦精品研報《人工智慧安全框架(2020年)》,可在公眾號聊天欄回復關鍵詞【智東西139】獲取。

(本文系網易新聞•網易號特色內容激勵計劃籤約帳號【智東西】原創內容,未經帳號授權,禁止隨意轉載。)

喜歡此內容的人還喜歡

原標題:《數據風險、算法黑箱怎麼破?這家創企用AI化解安全難題》

閱讀原文

相關焦點

  • AI黑箱怎麼破?神經網絡算法使機器學習透明化
    編者按:人們可以訓練人工智慧 (AI)和機器人完成任務,但整個過程在黑箱中運作。我們並不知道AI和機器人是如何決策的。一家名為OptimizingMind的初創公司想要解決這個問題。我們怎麼知道 AI 為什麼做出這些決定?卡內基梅隆大學計算機科學教授 Manuela Veloso 是研究協作機器人的專家。他表示,能解釋自身行為的 AI 對贏得大眾對人工智慧的信任至關重要。「我們需要質疑為什麼算法程序會做出這樣那樣的決定,如果我們不在 AI 動機解釋上花功夫,就無法信任這個智能系統。」
  • 如果AI沒有「黑箱」:顧澤蒼博士做客之江講壇
    對此,顧博士認為,AlphaGo只是一個算法,並不是很神奇的東西。在公眾對人工智慧抱有熱望的當下,顧博士指出,AlphaGo的主要工作原理是「深度學習」,但「深度學習」的推廣仍面臨嚴峻挑戰。推廣中的第一個難題是「黑箱問題」。
  • 「短命」的谷歌AI倫理委員會,繞不開的算法治理難題 | 騰研識者
    既然將算法治理置於以機器學習為代表的第三次人工智慧發展浪潮的背景下,那麼自然地,機器學習算法本身的原理與性質自然也會影響到算法的應用,並可能在其應用過程中帶來風險。一般而言,當前最普遍應用的機器學習算法是建立在對於已標註人類知識的大數據集的訓練基礎上,由此形成由該大數據集若干共性特徵所組成的規則集,進而被用於模式識別、信息預測、數據生成等各個領域。
  • 人工智慧教育應用的算法風險
    人工智慧教育應用的風險主要是使用算法和計算模型對教育現象進行量化和計算造成的風險,風險的發生取決於計算模型和算法是否符合教育邏輯、教育過程和教育中的人是否可以被量化和計算、對教育過程的量化是否反映了教育本真、算法和計算模型是否安全可靠、算法和計算模型是否存在濫用誤用等。
  • ...或成械企升級關鍵|AI|械企|醫療|企業|數據|算法|診斷|審批|...
    基於此,械企紛紛投入資源進行創新研發來尋找出路,如威高自主研發了妙手微創手術機器人,樂普醫療有心電分析軟體等。從大型械企的布局來看,醫療AI方向或是企業在集採中的「避風港」,也是企業未來的「增長引擎」。同時,近日AI產品三類證接二連三的獲批,也讓發展跌宕起伏的醫療AI行業的關注再度升溫。
  • 美國領跑AI創新?福布斯全球AI 創企Top 50
    24.LOG.IOLogz.io是一個日誌分析平臺,使用AI和機器學習算法來查找IT環境中不斷生成的信息量裡的關鍵事件。36.CROWDFLOWER這是一個對數據科學團隊很重要的人類幹預訓練平臺,幫助客戶生成高質量的自定義訓練數據。
  • 「AI實力派」的進取之道:百融雲創用數據和算法提升金融效率
    專注AI 堅信數據和算法的價值「AI實力派」是百融雲創留給合作夥伴的普遍印象。在百融雲創的核心管理團隊中,有4位畢業於清華大學,創始人兼CEO張韶峰更是在AI這個賽道上堅守了近20年。創立之初,百融雲創提供的人工智慧、機器學習這類算法並沒有獲得太多銀行認可。「許多銀行更習慣傳統的邏輯回歸算法,這樣的算法處理的數據欄位比較少,算法也更具解釋性,用起來相對簡單,技術理解起來很容易。」張韶峰迴憶,轉折點發生在2016年,AlphaGo戰勝圍棋世界冠軍,客戶對於人工智慧技術的態度發生了明顯的轉變。
  • AI 算法解決二進位安全問題,騰訊安全NeurIPS 2020論文有新方法
    機器之心發布 機器之心編輯部 騰訊安全科恩實驗室使用 AI 算法解決二進位安全問題的一項研究被 NeurIPS 2020 接收,該研究首次提出了基於 AI 的二進位代碼 / 原始碼端到端匹配算法,與傳統算法相比效果非常出色
  • 清華系創企RealAI:獨家「隱私保護機器學習」技術,全球首款編譯級...
    但數據,作為人工智慧(AI)的「石油」,不能簡單粗暴一刀切,如何加高數據安全的「圍欄」,加厚隱私保護的「盔甲」,是基礎中的基礎。數據安全,保護隱私,第一要重視。總有人嬉皮笑臉,覺得丟了數據、隱私沒什麼。第二要有方法,技術得跟上。宏觀層面,「算法可靠、數據安全和應用可控」,早已提上日程。純聊技術,哪些方法可以破解?
  • AI上市潮:解讀隱遁在AI公司造芯熱背後的機會和風險
    而如果比拼硬實力,科技巨頭們在資金儲備、人才聚集能力、落地規模等方面均具有先天優勢,這也意味著AI創企在投資大、風險高、回報周期長的造芯路上,往往會面臨更大的壓力。 02 AI晶片研發要流多少血? 研發AI晶片,免不了需要重金投入。
  • 英國創業公司Flock用AI和數據分析規劃無人機路線,還城市一份安全
    )】8月11日報導(編譯:冬冬)無論是國家還是公司,規劃的藍圖裡都少不了無人機,因此無人機的安全和效率問題成了重中之重,一家倫敦創企希望通過改善這兩個問題,還天空一份祥和與乾淨該創企名叫Flock,它使用AI技術和城市環境的數據分析來判斷無人機飛行的安全情況。Flock通過合法渠道獲得城市建築、市民和汽車的定位以及當地的天氣情況,然後將這些數據輸入估測平臺,計算是否適合飛行。公司現在主要的目標受眾是保險公司,希望通過特有的技術幫助這些公司計算保險金額。此外,公司還將目標瞄準無人機運營商。
  • 10年買下28家AI公司,這是蘋果的「吸星大法」-虎嗅網
    根據調研機構CB Insights的數據,截至2019年,蘋果、谷歌、微軟、Facebook、英特爾、亞馬遜等美國科技巨頭是最活躍的AI創企收購方。也是在這一年9月,蘋果又收購了印度機器學習公司Tuplejump,這家公司擅長用機器學習處理大量複雜的數據流信息,被蘋果用在Siri和CoreML功能中用於優化數據管理。第二年,蘋果又收購了一家僅有6名員工的美國創企Init.ai。
  • 打開人工智慧黑箱:看最新16篇可解釋深度學習文章,帶您了解增強AI透明性
    《深度學習: 算法到實戰》, 中科院博士為你講授!在從文本、圖像等非結構化數據學習等領域,對提取出的句子依賴樹、圖像場景圖等結構進行推理是一個重要的研究課題,也需要圖形推理模型。圖神經網絡(GNNs)是一種連接主義模型,它通過在圖的節點之間傳遞消息來獲取圖的依賴性。與標準神經網絡不同的是,圖神經網絡保留了一種狀態,這種狀態可以用任意深度表示鄰居的信息。
  • 清華系創企RealAI推全球首款編譯級產品
    (「多個地方」也就是必須用分布式算法和系統。)特點二,保鏢傍身。(請了「密碼學」做保鏢,傳輸模型參數以加密的方式進行,算法設計方法的根本變化是密碼學參與。)如此一來,這一技術是桃園三結義。分布式、密碼學與人工智慧三者強強聯手,清華學霸就是喜歡挑戰高難度技術,無難題,不興奮。
  • 加州伯克利新算法:打破AI黑箱 可按人類思維回溯推理 | 重大突破
    這會帶來兩方面的缺陷:一是當整個系統出現問題時,我們無法迅速準確地對問題進行定位並實施改進;二是當人工智慧得到一個近乎完美的運算結果時,我們無法回溯整個過程,並從中汲取經驗(雷鋒網註:也就是我們常說的「AI決策黑箱」)。現在有一個正在迅速成長的研究領域,正在試圖改變這一現狀。
  • 人工智慧時代的算法裁判及其規制
    深度學習通過提取數據中的抽象特徵, 實現對紛繁複雜的數據的高效處理、分類和學習, 從而能夠自動挖掘隱藏在數據中的規律和規則, 以備解決未來的難題。[7]  一、算法與算法裁判  關於算法的概念, 學者們一般定義為過程、方法、指令、處方等。
  • 百融雲創專注AI 堅信數據和算法的價值
    百融雲創成立之際,正值國內網際網路金融熱潮興起,創始團隊沒有選擇當時的熱門賽道,而是心懷「科技賦能」的夢想,嘗試將人工智慧和大數據技術結合應用於金融領域。「我自己內心更喜歡的、更加尊崇的還是偏技術的東西。」張韶峰解釋,經過與幾家金融機構的初步合作,創始團隊堅定了最初的想法。
  • 拓撲數據分析TDA,有望打破人工智慧黑箱的神奇算法
    本文介紹了拓撲數據分析(TDA)的基本原理,給出了案例展示,並指出該方法可以高效地進行可視化分析,有望為人工智慧黑箱提供可解釋性。近日,中科大潘建偉團隊在光量子處理器上成功運行了 TDA 方法,量子版本的 TDA 能夠實現對經典最優 TDA 算法的指數級加速。
  • 長文分享:AI算法工程師煉成之路
    都在做數據清洗,表格整理(攤手),都在library各種包,用的最多的可能是data.table和dplyr。沒辦法,很多模型都有包可以直接調用,是最簡單的環節了。其實一開始,我一直在犯很低級的錯誤,各種報錯,沒有library啦,標點符號沒打對啦,各種很low的錯誤犯了一次又一次,而且連報錯的內容都不會看,不知道怎麼去改正。
  • 人工智慧時代的算法權力:邏輯、風險及規制
    算法的運算機理是用機器語言刻繪現實世界,對研究對象進行抽象的簡化,建構出數學模型[2]。它本質上是解決問題的一系列指令,是用系統的方法處理問題的一種策略機制。但算法已不僅是一種獨立的技術,而是與社會權力結構融為一體的自主性體系[7]。探討算法的規制核心在於認清算法權力的運行邏輯,對算法權力的風險進行對應的分析。要在政府、司法、企業、社會等層面展開多維規制,既要保障技術安全,降低資本依賴,也要構建算法治理體系,完善算法治理機制[8]。