八大現象論證人工智慧威脅論真的存在!

2021-01-07 IT168

  【IT168 評論】如今人工智慧發展火熱,機器學習預見成熟,智能化未來似乎指日可待。表面上似乎一切都在按部就班的進行,但背後也不乏暴露出很多問題。就像近期人工智慧威脅論就引發了不少的言論激戰,揪其根源還是人工智慧是否能夠有意識違背人類意願操控事務的問題。

  因此,我們或許想問:人工智慧機器人究竟有多強大?機器人真的會「反噬」人類嗎?《終結者》裡的Skynet(天網)會真的發生在現實生活中嗎?

  強弱AI

  首先我們應該區分兩個概念:強AI和弱AI。強AI 是指一種能夠思考並可以感知自身存在的假想機器。它不僅可以解決人類為其定製的任務,還可以學習新事物。

  弱AI目前很常見,它是一種用於解決特定問題的應用程式,例如圖像識別、汽車駕駛、playing Go(圍棋)等,也就是我們常說的「機器學習」。

  目前,我們還無法預測強AI什麼時候能夠真正被研發出來。專家們經過調研推斷的結果也是「有朝一日」。

  相比強AI,弱AI目前已經存在,很多領域都可以看到弱AI的身影,並且應用範圍每年都在增長。通過實例學習,機器學習幾乎可以讓我們在無需編程的情況下處理實際任務。

  人工智慧威脅論真的存在嗎?

  我們通過建立數學模型(「學習」算法),教會機器人解決具體問題。機器人會按照我們規劃好的模型法去執行任務,也就是說機器學習的一切行為都是基於我們的操控,我們似乎不用擔心電影《終結者》天網的發生。但如果我們抱有這樣天真的想法,我們就錯了,因為機器學習仍然可能違背人類的意願去執行錯誤的任務。

  1.不良企圖

  如果我們教一個無人機軍隊使用機器學習去殺人,那麼結果是否符合道德行為標準?

  基於這個話題還發生過一場鬧聞。2017年,谷歌正在開發一款用於軍事項目的軟體,名為Maven。該項目涉及到無人機,以及未來完全自主武器系統的製造。因此,谷歌的12名員工辭職以示抗議,另外有4000名員工籤署了一份請願書,要求公司放棄與軍方的合同。與此同時,人工智慧、倫理學領域的1000多名知名科學家一起寫了一封致谷歌的公開信,要求該公司放棄該項目並支持禁止自主武器的國際協議。

  2.開發者偏見

  即使機器學習算法開發人員沒有惡意,但他們中的很多人還是金錢價值觀,他們的最終目的還是為了賺錢。也就是說,他們的算法是為了使自己受益而創建的,並非是為了社會利益。例如,一些醫療算法會推薦昂貴的治療方法,卻很少推薦最佳患者治療方案。

  實際生活中算法的道德規範問題似乎也沒有很大體現。例如,交通速度和車禍死亡率之間是可以存在折中方案的。我們可以將自動駕駛汽車的最高行駛速度限制在15英裡\小時以下,這樣幾乎可以將車禍死亡率降到零,但這樣卻損失了汽車的其他優勢。

  3.違背邏輯規範

  電腦系統在默認的情況下,對邏輯規範一無所知。一種算法可以將國家預算與「最大化GDP/勞動生產率/預期壽命」的目標結合起來,但如果沒有在模型中編制限制,它可能會取消學校、收容所和環境的預算,因為它們不會直接增加GDP。

  為了一個目標,我們可以讓機器學習執行任何一個複雜任務,但前提是要融入相關的邏輯規範。

  4.改變人類偏好

  機器學習給我們的生活帶來了很多便利,但無形之中也在改變我們的生活常態甚至個人行為偏好。例如智能電影推薦,機器學習會根據您對電影的評分,將您的偏好與其他用戶進行對比,然後向您推薦電影。長期下來,您的偏好將因為電影推薦系統而被改變,興趣範圍也會被縮小。

  但可怕的是,我們並沒有意識到這種改變的發生,沒有意識到計算機對我們的操控。

  5.錯誤的相關性

  當完全彼此獨立的事物表現出非常相似的行為時,就會產生一種虛假的關聯,這就會造成一種錯覺,認為它們之間存在某種聯繫。例如,你會認為美國的人造黃油消費與緬甸州的離婚率密切相關嗎?

  我想任何一個有點學識的人都不會認為二者是相關的。但數學模型不具備這樣的經驗學識,它只是用來學習和數據概括的工具,在它的邏輯系統裡,這樣相似性的曲線變化表明二者之間一定有著某種聯繫。

  6.反饋循環

  相比錯誤相關性,反饋循環影響更大。反饋循環是指算法決策影響現實的情況,反過來又使算法確信其結論是正確的。

  例如,加利福尼亞的一項預防犯罪計劃表明,警察應該根據當地的案件數量斷定犯罪率,然後根據犯罪率派遣相應的警官。但最終會陷入到這樣一個循環裡:一個街區的警察增加,當地居民的報警次數就會增多,從而增高犯罪率,按照預防犯罪計劃就要派遣更多的警察,警察數量增多,人們的報案數量就又增多,報案率上升,便又增加警察數量······

  7.「被汙染」的參考數據

  算法學習的結果很大程度上取決於參考數據,它們構成了學習的基礎。然而,數據很有可能會因為某種偶然的情況或是個人意圖而發生扭曲,即數據「被汙染」。

  一個經典的例子就是2016年微軟推出的聊天機器人Tay,微軟將這款機器人視為「對話理解」的實驗。微軟表示,與Tay進行的聊天越多,它就會越聰明。但是微軟的此次聊天實驗卻只進行了24小時就不得不停止,因為無辜的聊天機器人竟然在24小時內被教會了大量種族歧視、性別歧視的用語。Tay的案例為機器學習的研發工作敲了警鐘,反應了「被汙染」 數據的嚴重性。

  8.機器欺騙

  即便是一個功能、數據都良好的模型,它工作原理的洩露也會讓惡人鑽了空子。例如,有一組研究人員研發了一種可以欺騙面部識別算法的特殊眼鏡,這種眼鏡會在圖像中引入最小的失真,從而改變面部識別結果。

  怎樣解決?

  2016年,歐巴馬政府的大數據工作組發布了一份報告,警告:「在自動化決策中可能存在編碼歧視」。該報告還呼籲創建遵循平等原則的算法。

  但將報告完全落實應用就很難了。

  首先,機器學習數學模型很難測試和修復。因為在機器學習中,一切都取決於學習樣本的大小,樣本的數量是有限的。

  舉一個經典的例子:早在2015年,軟體工程師JackyAlciné曾指出谷歌照片中的圖像識別算法將他的黑人朋友歸類為「大猩猩」。谷歌對此錯誤感到震驚,並向 Alciné表示歉意,承諾修復該錯誤。然而三年後,谷歌除了禁止在圖像標記中使用「大猩猩」等類似詞語外,並沒有其他更好的解決方案。

  其次,機器學習算法的決策很難被理解和解釋。神經網絡會在其內部安排加權係數來得到答案。但其過程是怎樣的呢?錯誤答案如何被修正呢?

  舉兩個例子:2015年的一項研究顯示,谷歌廣告高薪工作的瀏覽次數,男性高於女性。亞馬遜當天免費送貨服務,非洲裔美國人社區(黑人社區)卻享受不到。基於這兩種情況,兩家公司均表示無法解釋這些由算法做出的決定。

  基於這些算法決策,沒有人應用受到責備。因此我們需要對機器人制定出一套法律法規來規定機器人的行為決策。2018年5月,德國人邁出了第一步,他們發布了世界上第一個自動駕駛汽車指南。部分內容為:

  與一切財產相比,人類生命至上。

  不可避免性事故,不得有歧視,不得有任何區別性因素存在。

  如果自動駕駛比人類駕駛造成的事故少,那麼自動駕駛系統將成為道德要求。

  很明顯,機器學習在個別任務的管理能力上確實比人類強,導致我們對機器學習的依賴程度越來越高。因此記住這些機器學習缺陷就顯得尤為重要,研發人員應該在開發階段測試好所有可能存在的問題,並設置好算法的監控措施。

相關焦點

  • 扎克伯克反駁人工智慧威脅論:不贊同
    扎克伯格日前在接受Axel Springer Award頒獎時接受採訪,在談及人工智慧威脅論,比如伊隆·馬斯克等擔心的未來機器將取代人類等擔憂時,他認為這些擔憂毫無依據 (not valid fear),簡直就是發神經 (hysterical)。
  • 谷歌AI高管抨擊馬斯克人工智慧威脅論:不負責任
    最近,馬斯克在Twitter上稱,全球競相發展人工智慧技術有可能引發第三次世界大戰。這些言論,讓谷歌、Facebook和其它專注於人工智慧的公司的研究人員感到很惱火。周二,谷歌搜索和人工智慧主管約翰·詹南德雷亞(John Giannandrea)對馬斯克有關人工智慧會為人類帶來威脅的觀點進行了猛烈抨擊,不過,他很小心地沒有提及馬斯克的姓名。
  • 實在論的容易論證中關於指稱的默認假設
    內容提要:最近流行的關於有爭議實體存在的容易論證,其論證步驟中要用到存在概括,但存在概括要求在相應指稱位置上的詞項有真實的指稱。然而,在通常的容易論證中,相應的詞項有指稱是被默認的。在本文中,通過強調一種普遍存在的語言現象,這個默認假設將被質疑。
  • 中觀學派|龍樹菩薩等「八大註解家」 與《中論》的思想論證!
    因理解而分裂《中論》是一部偈頌體的論書,論主將論證的過程,以偈頌的形式呈現,可謂言簡而意賅。一般而言,偈頌體的論書,會由論主本人親撰註解,有時則由論主的弟子或再傳弟子來撰寫。由於偈頌體的語言過於濃縮,故難以完全表達論主的意思。
  • 2018管綜論說文得分點在於觀點明確、論證嚴密
    在此,李俐老師嚴格依據考試真題及原文材料,結合管理類專業學位聯考綜合能力考試大綱,針對此次論說文寫作試題做出權威解析,以期幫助大家明確重要考情。  首先明確,管綜試卷滿分200,由數學基礎(75分)、邏輯推理(60分)以及寫作(65分)三種題型依次構成。針對寫作而言,"分析論證能力和文字表達能力"實乃考查本質。
  • 李開復紐約時報專欄文章:人工智慧對人類社會的真正威脅
    在人工智慧已經深入生活的今天,社會上不乏「人工智慧威脅論」,擔憂機器人會「反噬」人類。在這篇文章裡,李開復博士討論了人工智慧技術未來發展所帶來的幾個更真切和亟待解決的問題:全球性的失業問題及可能產生的全球性經濟失衡和貧富差距。
  • 從輔助到共存:智能編輯與人工編輯的關係新論(簡明版)
    人工編輯的學習方式是信息感知式的。智能編輯適用於處理同質性強、數據龐大的工作,人工編輯適用於處理創造性和多元性的編輯工作。社會效益和經濟效益並重原則下的協作互補。在內容審核和推送階段,必須還要有人工編輯來負責價值把關和方向引領,對智能編輯進行總的「領導」;智能編輯則能對數據進行高效分析處理,有利於把握閱讀需求和市場動向。
  • 人工智慧威脅人類?羅振宇推薦的書單讓你理性認知未來
    科幻小說裡對未來的想像,不僅包含了對各種前沿技術的設想,更提出了在步入新時代以後可能面臨的各種社會現象和倫理問題。就像好萊塢大片裡經常就會設置這樣的橋段:未來世界,機器人擁有了智能,開始試圖反抗甚至統治、奴役人類。
  • 徐英瑾評《人工智慧簡史》︱人工智慧,真的能讓哲學走開嗎?
    《人工智慧簡史》最近尼克先生寫了一本新書,題目叫《人工智慧簡史》(人民郵電出版社,2017年12月)。因為我本人最近十來年一直從事人工智慧哲學的研究,自然就在第一時間買來一本閱讀。在這篇書評裡,我想特別談談該書的第九章。
  • 與人工「智能」相比,我們人類最大的優勢是「智慧」
    在霍金生命中的最後幾年裡,他曾頻繁發出關於人工智慧的警告:「人工智慧可能毀滅人類」,並且表示人類必須建立有效機制儘早識別威脅所在。究竟什麼是人工智慧呢?百度百科是這麼解釋的:人工智慧(Artificial Intelligence),英文縮寫為AI。
  • 教師與人工智慧技術關係的新釋——基於技術現象學「人性結構」的視角
    人為了完善自身的性能不得已藉助技術進行補救,因此,技術在人的「存在」中充當了「代具」的角色,逐步使人的「存在」淪為技術性的「存在」。其中「代具」的本意為替代人肢體的器具(假肢),在這裡意指人類對外在技術的強烈依賴性。也就是說,技術這一「外在的東西」構成了人的「自身存在」,從而也就意味著「人」最終是以「人—技術」的方式「存在」。
  • 人工智慧技術的三個層次,人工智慧製造業應用場景
    人工智慧技術的三個層次,人工智慧製造業應用場景 數位化企業 發表於 2020-12-17 09:53:45 人工智慧的概念第一次被提出,是在20世紀50年代,距今已六十餘年的時間
  • 人工智慧簡介(科普版17k字)
    ▪ 研究方法如今沒有統一的原理或範式指導人工智慧研究。許多問題上研究者都存在爭論。其中幾個長久以來仍沒有結論的問題是:是否應從心理或神經方面模擬人工智慧?或者像鳥類生物學對於航空工程一樣,人類生物學對於人工智慧研究是沒有關係的?
  • 人工智慧製造業應用場景
    01 人工智慧技術的三個層次 人工智慧技術和產品經過過去幾年的實踐檢驗,目前應用較為成熟,推動著人工智慧與各行各業的加速融合。從技術層面來看,業界廣泛認為,人工智慧的核心能力可以分為三個層面,分別是計算智能、感知智能、認知智能。
  • 什麼能夠幫助我們在人工智慧倫理領域前行?能夠採取的行動有哪些?
    在人工智慧倫理研究中,主流的看法是既然讓人工智慧決策已經不可避免,應該將倫理嵌入人工智慧技術之中,以便增加人工智慧決策的可靠性和安全性。這種嵌入,也稱為「道德算法」。在道德算法的實現路徑上,人們已經考慮了三種進路:自上而下進路、自下而上進路和某些混合式進路。
  • 孫利天 | 哲學體系的自身區分及其循環論證
    在非嚴格知識形態哲學的意義上, 語言轉向、生活世界轉向或生存論轉向等哲學變革,都是哲學順時應變,維持自身存在的努力。但是,現代西方哲學的這些轉向真的能夠為自身存在提供合法性證明嗎 ? 上述哲學轉向真的為哲學提供了新的堅實的理論基礎了嗎?本文認為,西方哲學的理論性質決定了它永遠是一個開放的循環論證的結構, 現代西方哲學轉向並未給出絕對自明性的理論基石,相反它卻需要古典哲學某些原理的論證和支持。
  • 重慶大學醫學院神經智能研究中心平臺建設通過專家論證
    2020年4月27日,重慶大學「雙一流」建設辦公室組織國內神經智能領域,分別來自北京大學、復旦大學 、四川大學、中國科學技術大學、陸軍軍醫大學、北京師範大學、中國科學院、華中科技大學的八位知名專家,成立了論證專家組,通過線上會議的形式,對醫學院神經智能研究中心學科建設項目開展論證。
  • 申論文章常用的論證方法
    一、事實(舉例)論證事實(舉例)論證是一種從材料到觀點,從個別到一般的論證方法,是從對許多個別事物的分析和研究中歸納出一個共同的結論的推理形式。使用這種方法,一般是先分論後結論,即開門見山提出論題,然後圍繞論題逐層運用材料證明論點,最後歸納出結論。這種結構的方法,比較符合人們的思維認識規律。
  • 馬斯克再放AI威脅論:人工智慧五年內超越人類
    時至今日,人工智慧早已存在於我們生活的方方面面,手機地圖導航,規劃最優路線,避開擁擠路段用到了AI;電商平臺、資訊軟體根據用戶的行為習慣,喜好性格等,推送你想看的想買的,用到了AI大數據計算;甚至幫你定鬧鐘,回簡訊的手機語音助手也是人工智慧的體現。   人工智慧給我們的生活帶來了便捷,但越來越聰明的AI也引發了不少人的擔憂。
  • 基於形式論辯系統的滑坡論證分析
    在此基礎上結合形式論辯領域中的抽象論辯框架及結構化論辯ASPIC[+]系統,對滑坡論證進行刻畫,構建了一個針對滑坡論證的形式化論辯理論。案例研究顯示,使用文章給出的滑坡論辯理論推理的結果符合人類推理直覺。