人工智慧該如何實現人性化,才能建立起自身可信度?

2020-10-20 科技行者

人類很難相信自己無法理解的機器,並最終阻礙了我們從這一創新技術中切實受益。
來源丨DZone
編譯丨科技行者

人工智慧(AI)往往被視為一種暗箱實踐,即人們並不關注技術本身的運作方式,只強調其能夠提供看似正確的結果。在某些情況下,這種效果就已經可以滿足需求,因為大多數時候我們都更關注結果,而非結果的具體實現方式。

遺憾的是,將AI視為暗箱過程會產生信任與可靠性等問題。從純技術的角度來看,這也導致我們難以分析或解決AI模型中存在的問題。

在本文中,我們將共同了解其中的部分潛在問題以及幾種解決方案思路。

AI是什麼?

不少企業已經將人工智慧(AI)元素納入自家產品。雖然有些「AI」表述只是虛假的營銷策略,但也確實有不少產品開始使用AI及機器學習(ML)技術實現自我提升。

簡而言之,AI是指一切能夠表現出智能行為的計算機系統。在本文的語境下,智能代表著計算機在學習、理解或者概念總結等層面的飛躍式進步。

當前,AI技術最常見的實現形式為機器學習,其中由計算機算法學習並識別數據中的模式。機器學習大致分為三類:

監督學習:即使用已知數據進行模型訓練。這有點像給孩子們看最簡單的看圖識字教材。這類ML也是大家最常接觸到的實現形式,但其有著一個致命缺點:只有具備大量可信且經過正確標記的訓練數據,才能建立起相關模型。

無監督學習:模型自行在數據中查找模式。手機導航軟體使用的就是這種學習方式,特別適合我們對數據一無所知的情況。目前業界往往使用無監督學習從數據中識別出可能具有現實意義的重要聚類。

強化學習:模型在每次正確執行時都會得到獎勵。因為這是一種典型的「實驗試錯」學習方法。如果我們初期只有少量數據,那麼這種ML方法將表現得尤為強大。它的出現,直接令持續學習模型成為可能,即模型在接觸到新數據後會不斷適應及發展,從而保證自身永不過時。

但這些方法都面臨著同一個問題,我們無法理解學習後生成的最終模型。換言之,人工智慧無法實現人性化。

信任問題

暗箱式AI系統大多屬於由機器經過自學過程建立起模型。但由於無法理解系統得出結論的過程,我們就很難理解模型給出特定結論的理由,或者對該結論缺乏信心。我們無法詢問模型為什麼會這麼判斷,只能拿結果跟自己的期望進行比較。

如果不理解AI模型的起效原理,我們又怎麼能相信模型會永遠正確?

結果就是,這種不可理解性同無數反烏託邦科幻作品映射起來,讓AI成了恐怖神秘的代名詞。更糟糕的是,不少AI模型確實表現出嚴重的偏差,這也令信任危機被進一步激化。

偏差或者說偏見,一直植根於人類的思想意識當中,現在它也開始成為AI技術無法迴避的大難題。因為系統只能從過往的情況中學習經驗,而這些可能並不足以指導模型做出面向未來的正確選擇。

以AI模型在犯罪預測中的應用為例,這些模型會使用以往犯罪統計數據來確定哪些地區的犯罪率最高。執法部門則調整巡邏路線以向這些地區集中警力資源。但人們普遍質疑,使用這類數據本身就是在加強偏見,或者潛在地將相關性混淆為因果性。

例如,隨著新冠疫情的肆虐,美國各大主要城市的暴力犯罪率開始顯著下降;但在某些司法管轄區內,汽車盜竊及其他劫掠案件卻有所增加。普通人可能會將這些變化與全國範圍內的社交隔離合理聯繫起來,但預測性警務模型卻有可能錯誤地將犯罪數量及逮捕率的降低解釋為穩定性與治安水平的提升。

目前,人工智慧中存在多種形式的偏見。以人臉識別軟體為例,研究表明包含「人口統計學偏見」的算法會根據對象的年齡、性別或種族做出準確率波動極大的判斷。

有時,數據科學家在執行特徵工程以嘗試清洗源數據時,同樣會引發偏差/偏見問題,導致其中某些微妙但卻極為重要的特徵意外丟失。

影響最大的偏見甚至可能引發社會層面的問題。例如,廣告算法會根據人口統計數據定期投放廣告,從而將對於年齡、性別、種族、宗教或社會經濟等因素的偏見永久留存在模型之內。AI技術在招聘應用中也暴露出了類似的缺陷。

當然,這一切都源自人類自己引發的原始偏見。但是,我們該如何在AI模型中發現這些偏見並將其清除出去?

可解釋AI

為了增加對AI系統的信任度,AI研究人員正在探索構建可解釋AI(XAI)的可能性,希望藉此實現AI方案的人性化。

XAI能夠避免我們在暗箱模型中難以識別的種種問題。例如,2017年研究人員的報告稱發現了一項AI作弊問題。該AI模型在訓練之後能夠成功識別出馬匹的圖像,相當於對經典狗/貓識別能力的變體。但事實證明,AI學會的實際上是識別與馬匹圖片相關的特定版權標註。

為了實現XAI,我們需要觀察並理解模型內部的整個運作過程。這項探索本身已經構成了理論計算機科學中的一大分支,其困難程度可能也遠超大家的想像。

比較簡單的機器學習算法當然相對易於解釋,但神經網絡則複雜得多。即使是包括分層相關性傳播(LRP)在內的各類最新技術,也只能顯示哪些輸入對於決策制定更為重要。因此,研究人員的注意力開始轉向本地可解釋性目標,希望藉此對模型做出的某些特定預測做出解釋。

AI模型為什麼難以理解?

目前,大多數ML模型基於人工神經元。人工神經元(或稱感知器)使用傳遞函數對一個或多個加權輸入進行組合。以此為基礎,激活函數將使用閾值以決定是否觸發。這種方法,實際上限制了神經元在人腦中的工作方式。

作為一種常見的ML模型,神經網絡由多層人工神經元組成。輸入層與重要特徵擁有相同的輸入數量,同時輔以大量隱藏層。最後,輸出層也將擁有與重要特徵相同的輸出數量。

我們以最簡單的應用場景為例,考慮ML模型如果根據今天是星期幾及是否屬於假期來預測您的起床時間。

在隨機分配權重的情況下,模型會生成錯誤的結果,即我們周三需要在上午9點起床。

我們當然不可能以手動方式為每個人工神經元設置確切的權重。相反,我們需要使用所謂反向傳播過程,算法將在模型中反向運作,藉此調整網絡的權重與偏差,力求將預測輸出與預期輸出間的差異控制在最小範圍。在調整之後,結果是周三早上應該7點起床。

信任與道德

技術信任問題正變得愈發重要,畢竟我們已經在嘗試使用AI診斷癌症、識別人群中的通緝犯並做出僱傭/解僱決策。如果無法實現AI人性化,又怎麼能要求人們向其給予信任呢?如果沒有這種信任,以符合道德的方式加以使用更是痴人說夢。

對於這個重要問題,歐盟已經通過一套關於可信AI的道德準則,針對AI是否符合道德及具備可信度設置了七項測試:

人類代理與監督:AI系統不可在人類不具備最終決定權的情況下做出決策。

技術的健壯性與安全性:在使用AI技術之前,必須明確其是否可靠,包括具備故障保護能力且不會被黑客入侵。

隱私與數據治理:AI模型往往需要處理個人數據,例如通過醫學造影圖像診斷疾病。這意味著數據隱私將非常重要。

透明度:AI模型應該具備人類可解釋的基本屬性。

多樣性、非歧視性與公平性:主要涉及我們前文討論過的偏見問題。

環境與社會福祉:在這裡,準則制定者們希望消除人們對於AI技術發展造成反烏託邦式未來的擔憂。

問責制度:必須建立起獨立的監督或監控制度。

當然,指南也強調,必須以合法方式使用AI技術。

AI的人性化之路

本文關注的重點只有一個:人工智慧該如何實現人性化,從而切實建立起自身可信度。

人類很難相信自己無法理解的機器,並最終阻礙了我們從這一創新技術中切實受益。

這個問題在軟體測試自動化領域表現得尤其明顯,因為此類系統的意義就是在應用方案發布之前找到其中存在的潛在問題。如果不了解具體流程,我們要如何確定測試結果的正確性?如果做出了錯誤決定,該怎麼辦?如果AI系統遺漏了某些問題,我們該如何發現或者做出響應?

為了解決這個難題,必須將ML算法與測試體系結合起來,實現決策制定與相應數據間關聯關係的可視化。只有這樣,我們才能徹底告別暗箱式AI。這是一項踏踏實實的工作,沒有奇蹟、沒有魔法,可以依賴的只有不懈努力與對機器學習美好未來的憧憬。

相關焦點

  • 人工智慧倫理三問:如何對待機器和自身的關係?
    隨著人工智慧的不斷發展,我們對於人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的後果。我們該如何對待機器和自身的關係?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那麼,人還有參與社會互動的需要和動力嗎? 人工智慧還帶來了新的社會權力結構問題。
  • 淺談:如何能成為可信度高的電視新聞節目主持人
    現在通常所指的電視新聞節目主持人 是在演播室現場組織串聯節目內容同時又能親自進 行新聞報導,從頭至尾在節目中起著主導作用的電 視工作者. 「可信度」顧名思義就是可以信賴的程度。這 樣,對電視新聞節目主持人的可信度就可以理解 為:是電視觀眾評價主持人值得信賴的程度,它 「牽涉受眾對傳者人品的評價以及對其宣傳動機的 正當,公允程度的一種把握」。
  • 處理好人機關係,才能更好地享受人工智慧的紅利
    隨著「人工智慧」與生活深度融合,引導其有益於人類社會不僅要發展智能,更要用好「人工」。處理好人機關係,才能更好地享受人工智慧的紅利。  人工智慧需要基於大數據學習,而資料庫建設難免涉及個人敏感信息;人工智慧顛覆了網絡監管模式,但新的監管模式尚未形成;人工智慧衝擊了感情倫理,但調適人工智慧與人關係的倫理體系正待建立......凡此種種,使得公眾對人工智慧態度複雜亦在情理之中。
  • 新加坡國立大學發布《亞洲人工智慧議程研究報告》
    人工智慧的發展不能僅僅局限於技術的進化,而必須與人文結合協同發展。在人文與科技的共同合作下,才能更有效的探索以人為本的人工智慧,提高社會創造力和人類的幸福感。由新加坡國立大學商學院管理與組織系教務長講席教授兼璞珵教育學術委員會專家——大衛·德克萊默教授領導成立了新加坡國立大學人工智慧技術與人性化管理中心人工智慧技術與人性化管理研究中心(以下簡稱AiTH),致力於找到人工智慧與人類之間的平衡點,在享受人工智慧帶來的好處和機遇的同時,確保這些先進的科技能夠服務於人類並符合當代的價值觀、道德觀,做到科學技術和人倫之間的平衡
  • 人工智慧中的11個悖論(誤區)預示了實現通用人工智慧的正確道路
    一旦「問題」清楚了,解決起來可能並不困難」 ;DeepMind 聯合創始人 Demis Hassibis 說,「人類大腦是我們所擁有的唯一的證據,證明我們正在努力構建的一般智力是有可能的,所以值得付出努力來嘗試理解它是如何實現這些能力的」。筆者的研究經驗也表明,只有破解了智能的奧秘,我們才能知道人工智慧中的問題出在了哪裡,才能解決問題,實現真正的智能。
  • 人工智慧的語義學基礎
    人工智慧作為科學與哲學研究所共同關注的領域,自誕生以來就一直在其發展過程中面臨著諸多的理論困境與矛盾,其中最有意義和價值的一個問題就是人工智慧如何才能夠確立起其必要的語義學基礎的問題。這一問題的研究,既關乎人工智慧是否能夠實現高層次的理論突破並增強其實踐效力, 同時也是傳統語義學研究實現理論升華並最終構建起科學的、完整的語義學學科體系的必然出路。
  • 了解人工智慧,這15本書你一定要讀
    但是,來自各個行業的領導者、技術人員、程式設計師和工人往往又對於人工智慧存在誤解,他們並沒有完全搞清楚人工智慧的含義及其在當今的應用方式。一些國家和地區開始以不同的方式來應用人工智慧技術去改變他們的社會結構,但是,現在西方世界仍處於探討如何實現人工智慧為人類利益服務的「對話」階段。關於人工智慧可以做什麼、應該做什麼以及怎樣才能幫到我們這些問題,每個人都存在一定的困惑。
  • 外媒:人工智慧已能就自身錯誤發出警告
    外媒稱,人工智慧正在飛速發展,以至於該領域的最新技術成果已經幫助創建出了知道何時不能信任人工智慧的神經網絡。據阿根廷布宜諾斯艾利斯經濟新聞網11月26日報導,這種深度學習神經網絡旨在模仿人類的大腦,並能夠同時權衡不同的因素,從而以人類分析無法達到的水平,在數據基礎之上確定具體模式。
  • 看人工智慧如何實現精準醫療
    看人工智慧如何實現精準醫療 近日,黑龍江哈爾濱。哈醫大一院成功完成一例在人工智慧技術輔助下的全髖關節置換術,是該技術在骨科領域的又一全新突破。該院醫生稱這是全球首例人工智慧髖關節置換手術。
  • 外媒:人工智慧已能就自身錯誤發出警告
    參考消息網11月27日報導外媒稱,人工智慧正在飛速發展,以至於該領域的最新技術成果已經幫助創建出了知道何時不能信任人工智慧的神經網絡。儘管人工智慧一時還不會像電影《我,機器人》中的那樣具有毀滅性,也不會像電視劇《黑鏡》中那些臭名昭著的狗那樣,但能夠自主行動的機器已經在我們的日常生活中出現了,而且它們的預判可能會變得更加準確,甚至知道它們自身何時會發生故障。這對於改善其運行狀況以及避免發生科幻小說中的核災難來說,是至關重要的。
  • 四維度增加突破可信度
    來源:黃家茶社四維度增加突破可信度周一大盤突破了,放量上漲36個點,突破3400點的壓制,報收於3414點,收出一根帶有尖刺的中陽線,給市場帶來新的想像。綜合大盤技術面情況來看,有四維度積極因素增加突破的可信度。一、大圓弧三重底。大盤自七翻身衝至3400點之後,展開了區間震蕩走勢。先是構築小雙底,重啟反彈走勢。遇阻後再次構築三重底化解大盤破位下跌的風險,終於在進入11月份之後完成底部金三角與地上井穩固轉勢信號,促成周一大盤突破行情的到來。說明本次突破是經歷了長時間的準備,已經到了水到渠成的時候。
  • 人工智慧如何用來對付全球變暖的問題
    通過處理成千上萬個數據點生成的大量信息,人工智慧能夠增強甚至挑戰人類的決策能力。 在全球氣候變化問題上,人工智慧可以在加強氣候預測、破解如何分配可再生能源以及在能源方面做出更明智的決策方面發揮關鍵作用。 通過分析來自世界各地的傳感器、儀表和監視器頻繁產生的大量數據,人工智慧可以快速、自動地發現模式,為科學家描繪出一幅關於地球如何變化的非常精確的畫面。
  • 在中國如何實現人工智慧?
    其實在目前人工智慧如此盛行的時期,實現人工智慧的方法有很多。而在中國,實現的方法可以說是更多……其實,從人工智慧的智能水平來說,分為三個階段:弱人工智慧、強人工智慧、超人工智慧。職場問題原創內容源自我的公眾號:網際網路吧  (ID:hulianwanba)這三者的區別在每日心思之前的文章中有詳細的解釋,簡單來說:弱人工智慧
  • 中國製造如何才能實現製造大國向製造強國轉變
    中國製造如何才能實現製造大國向製造強國轉變 佚名 發表於 2020-01-14 09:03:29 作為中國實體經濟的主體,製造業是推動中國經濟乃至全球製造業持續增長的重要引擎
  • 「人工智慧+」未來 我們該如何存在
    原標題:「人工智慧+」未來 我們該如何存在   就在幾天前,面對棋盤,柯潔代表人類再次敗在了AlphaGo(以下稱「阿爾法狗」)的手下。阿爾法狗,橫掃全球一流圍棋高手,不僅向人類展現了圍棋的新高度,而且拉開深度學習技術與大數據技術融合的新人工智慧時代的序幕。
  • 人工智慧如何向善——一場科技與哲學的「跨界」對話
    新華社北京11月12日電題:人工智慧如何向善——一場科技與哲學的「跨界」對話新華社記者董瑞豐人類能否把控人工智慧的快速發展,又是否將與人工智慧一起攜手進化向善?中國科學院自動化研究所研究員王飛躍說,人工智慧有望讓人類實現「在虛擬世界吃一塹、吃多塹,在現實世界長一智」,通過實與虛兩個世界的平行秩序去創造未來。(小標題)談發展:還遠未達到真正的智能圍棋、遊戲領域,人工智慧已經「碾壓」人類。隨著量子計算的發展,人工智慧如虎添翼,是否會超出人類控制?
  • 我們該如何辨別機器人和人工智慧的區別
    打開APP 我們該如何辨別機器人和人工智慧的區別 格物斯坦機器人 發表於 2021-01-05 14:09:20 每個學生都有一個機器學習伴侶
  • 增添更多人性化功能,科大訊飛翻譯機翻譯更精準
    但是在出發之前也要考慮一下到了國外如何和外國人進行語言交流,否則會鬧出很多的笑話。建議帶上科大訊飛翻譯機,再難懂的外語也可以實現面對面交流,而且翻譯結果無需等待!科大訊飛作為中國最大的智能語音技術提供商,用人工智慧建設美好的世界,科大訊飛一直以來都專注於人工智慧的設計與開發,全力推動人工智慧技術產品普及到更多不同的行業領域當中,發揮出人工智慧的絕對優勢。
  • 人工智慧仍然長期目標,要過多久才能實現人工智慧時代?
    有時,我們不得不考慮什麼可以由人製造,或者人的智力是否高到足以創造人工智慧。人們普遍認為,人們唯一知道的智力是他們自己的智力。然而,我們對自己智力的理解是非常有限的,而且我們對構成人類智力的必要要素的理解也是有限的。與動物或其他人工系統相關的其他智能通常被認為是與人工智慧相關的研究課題。人工智慧已經廣泛應用於計算機領域。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    特別是在醫學診斷、網絡安全、自動駕駛等對安全性有較高要求的領域,深度神經網絡所隱藏的安全風險限制了其自身在更多領域的應用和推廣,引起了政府、學術界及工業界的關注。基於深度神經網絡的人工智慧系統主要面臨結果不可驗證和過程不可審查兩大安全問題。結果不可驗證指的是基於深度神經網絡的人工智慧系統輸出結果無法被判斷、預測,智能系統行為邊界難以掌握,導致系統不可控,本質上是深度神經網絡結果不可判讀。