數據和算法像人一樣有偏見,你還願意讓人工智慧幫你投票嗎?

2020-12-25 199IT

2016 美國大選將至,一些研究者和從業者也趁著這股熱潮推出了一些基於數據預測大選結果的人工智慧程序,但就像人類自己一樣,它們所支持的總統候選人也都不一樣(一些俄羅斯人開發的一個人工智慧程序會選擇川普當總統 :O)。未來,如果算法成為了我們日常生活的管家,我們可以讓算法來幫助我們選出總統嗎?

想像一下 2020 年的普通一天,人工智慧助手喚你起床,為你端上已準備好的早餐,都是你最喜歡的食物。在晨跑中,播放器會自動播放符合你喜好的最新歌曲。上班路上,電子助手會根據你過去的閱讀品味,自動向你推送新聞以供閱讀。

你閱覽著新聞,注意到總統選舉馬上就要來了,人工智慧參考了你過去的政治看法和本州其他選民的意見,向你推薦了一位民主黨候選人。你的手機上,一條彈出信息詢問你是否需要 AI 助手幫你準備投票所需文件,你點擊「同意」,然後關掉屏幕,繼續自己的生活。

人工智慧:呆板的數據機器

AI 個人助手在幾年前已經走進現實,對於我們來說,把履行公民義務的重任交與它們還是顯得有些不合適——即使人工智慧幾乎總是知道在特定的時刻給我們最好的建議。通過足量的數據學習,人工智慧可以為每個人提供準確的,個性化的建議,甚至比你最親密朋友的建議更完美。

Alphabet 董事長埃裡克·施密特堅信,人工智慧的發展會讓每個人都會變得更聰明,更有能力,更為成功。人工智慧已經展現出了巨大潛力,有希望幫助解決人類社會面臨的各種複雜挑戰,如氣候變暖,人口增長和人類發展。

然而機器展現出的潛力也帶來了擔憂。有調查顯示,34% 的人表示自己害怕人工智慧,而 24% 的人認為人工智慧會對社會造成負面影響。相比較未知的恐懼,人工智慧對於數據的依賴帶來了現實的隱患,GWI 的研究表明,63% 的民眾擔心他們的個人信息被科技公司濫用。最近 Oxford Internet Institute 的研究顯示,人們對於讓人工智慧助手打理自己生活的方式持謹慎態度,特別是當這些助理提出自己的建議,卻又不告訴你它推理過程的時候。

在這裡,我們沒有必要混淆數學與魔法。人工智慧並不是在你手機裡生活的神秘生物。但我們往往會忘記,人工智慧一直在讀取我們的個人資料,通過複雜的數學模型,自動推斷我們的興趣、位置、習慣、財務和健康。

開發者的角色

當前關於算法與人類的很多討論都圍繞著設計者在算法中的作用——人工智慧創造者的潛在意識和偏差是否會被編碼進幫我們做出決定的算法中。很多人擔心開發者的個人偏見會被帶入算法,其中一點點微妙的歧視就會讓部分人群的利益受到侵害——也許還有更壞的結果,科技平臺會演變成弱勢群體難以逾越的門檻。即使算法和寫算法的人沒有偏見,沒有人能夠保證訓練算法的數據中一切都是平等的,現實世界本身存在著偏見,數據集中的內容也會對人工智慧框架產生影響。

持這一觀點的決策者和專家們經常誤解人工智慧算法出錯的原因。他們不斷指責開發者,卻忽略了自我學習系統的局限性。將錯誤推給別人是一種自然反應,特別是在你無法理解這些技術時。算法的偏差很少來自於開發它們的工程師。事實上,在大部分情況下,問題的根源出自訓練算法的數據,這才是構建未來人工智慧社會所要擔心的真正危險。

算法決定論

回想一下機器學習到底是怎麼工作的,通過應用統計學技術,我們可以開發自動識別數據中特徵的算法。為了達到這個目的,系統需要經過巨大數據集的訓練,訓練模型的數據越多,預測準確率越高。

在個性化數字應用中,這些統計學習技術被用來建立算法,為用戶提供個性化服務,計算機閱讀了我們的使用模式、品味、偏好、人格特徵和社交圖譜,隨後建立起對於人類的數字觀感。計算機形成的社交身份並不基於你的個性或選擇,相反,這種虛擬身份來自於你的可統計數據點,和它們的機器解釋。這種代替,無論多麼複雜,都是人工智慧對人類的不完美數字表達。

人工智慧只能查找歷史數據,為用戶所需做出建議。這就是為什麼今年 8 月,一個視覺識別神經網絡通過 1400 萬張照片的訓練後預測唐納·川普將會贏得本屆美國總統大選。鑑於這個數據集中並沒有女性美國總統,AI 可能判斷性別是識別模型的相關特徵。但即使排除這一點,如果讓這個俄羅斯人訓練的人工智慧投票的話,它肯定會投川普。

這樣的推論會導致越來越僵化的推薦系統,它傾向於不斷強化現有的看法,就像社交網絡中的反射效應一般。「個性化」使每個人都被貼上了標籤,讓現實生活和網絡世界互相割裂。計算機不斷地推薦「你喜歡的」內容,用戶獲得的信息在不知不覺中被算法誤導,人類或許在人工智慧真正覺醒之前就已深陷其中了。

動態的人生

我們的身份是動態的,複雜而充滿矛盾的。根據我們的社會背景,我們總會擁有者幾個不同的身份,這意味著我們需要用到幾種不同的 AI 助理——在學校或工作中的,在酒吧或教堂裡的。

除了通常的自我介紹,我們在網絡中可能也需要以不同的身份展現自我,和不同的群體展開互動。我們不希望自己在社交網絡中被隨意查看,我們也不希望自己在尋找新奇事物時,還要擔心朋友和家人的窺視。如果我們想要試試不同的社會身份,會發生什麼?4Chan 創始人 Chris Poole 說道:「這不是你在和誰分享的問題,這有關你與他人分享什麼樣的內容。身份就像一個稜鏡,別人通過它來看你會呈現無數不同的面貌。」

區分不同的自我表達階層,繪製不同社交環境下的身份,對於人工智慧而言是一個巨大挑戰。很多時候,人類面臨的問題不在於算法設計——我們連自己是什麼都還沒弄清楚。但人工智慧助手總會給我們一個答案:關於過去的我們。身份的變化在這樣的環境中變得越來越難,我們的生活習慣和信念被自我強化的循環鎖定,算法構建的《土撥鼠日》出現了。

我們在日常生活中越依賴於個性化算法,我們的個性就會越被計算所磨滅,我們所讀,我們所見,我們生活的方式都將被機器所決定。通過專注於現狀,接管探索信息和偶遇陌生人的渠道,用過去發生過的事情試圖再一次討好自己,這就是算法決定論的世界。

當過去照進未來,人類賴以生存的自發性,開放與進取變得逐漸稀缺。溫斯頓·邱吉爾曾經的話變成了這樣:我們塑造了算法,然後,算法塑造了我們。

如何阻止未來

在今天,現實世界中的人工智慧應用已經融入到了日常生活的方方面面——而人們對這一科技的興趣也是越發濃厚。但是有兩個主要的挑戰正讓未來變得難以觸及。從科技進步的角度來講,不同應用之間的數據交換上缺乏互通性標準,而具備這一點能夠防止徹底的個性化。要是想要真正有用的話,機器學習系統需要更多的個人數據——而這些數據現在都被孤立地分散在一些有競爭力的科技公司的專業資料庫當中。那些掌握數據的公司就掌握了權利。一些公司,最著名的比如說像 Apple 和 Viv,已經開始通過與第三方服務結合的實驗來擴大自己的勢力範圍。最近,一些最大的科技公司宣布了與人工智慧研究的主要合作,這樣就可以將益處帶給大多數人,而不僅僅是少數人。這將會對今後建立對人工智慧的普遍信任至關重要。

從社會的角度來看,人類似乎對人工智慧的急速發展有一種莫名的反感。人們擔心會失去對人工智慧助手的控制。信任是我們控制能力的一種直接表現。試圖對生產力進行一些微小的改進,卻要賭上關係和名譽,大多數人都不願意這樣做。

當然,在早期,人工智慧助手的行為方式可能並不是它的人類製造者所期望的。有先例證明,一些失敗的人工智慧實驗會減少對弱人工智慧(narrow AI)解決方案和聊天機器人(conversational bots)的信任。Facebook、微軟和谷歌紛紛在 2016 年建立了它們的機器人平臺,但過早呈現在人們面前的人工智慧科技,因其有限的功能、應用和定製化讓用戶大失所望。

一直困擾我們的恐懼——人工智慧科技的後果,也因為很多科幻小說中所描述的有意識、暴戾的人工智慧統治世界的反烏託邦場景而加劇。但是我們所面對的未來,既不會像是人工智慧網絡「天網」(Skynet),也不會像喬治·歐威爾的《1984》裡一樣:而更可能會像是《美麗新世界》(A Brave New World)中所描述的一個享樂主義的社會,在那裡,科技的地位仍然是需要為普遍的幸福和自我放縱所服務。

未來導向型機制

科技發展的腳步從未停滯,但希望仍在。2016 年全球傑出青年社區(Global Shapers Community)的年度調查顯示,在年輕人眼中,人工智慧已經成為了主要的科技發展趨勢。此外,21% 的調查對象表示他們支持人形機器人的權利,而且在東南亞,支持的呼聲尤為高漲。年輕人們似乎對於人工智慧在我們日常生活中所扮演的角色持非常樂觀的態度。

在歐洲,歐盟的《一般數據保護條例》(General Data Protection Regulation,簡稱 GDPR)讓用戶有機會要求對基於分析的算法決策進行解釋,限制了絕對形式的算法決策。該條例有望於 2018 年 5 月之前在所有歐盟國家實施。這樣的機制能夠限制資料搜集,強調了人類可解釋性(human Interpretability)在算法設計中不容忽視的重要性。但是,這是否會對一些大型科技公司現行的算法實踐帶來主要的變化,還尤未可知。

每天都有關於我們每個人的成千上萬個算法決策——從 Netflix 的電影推薦、Facebook 上的好友建議,到保險風險評估和信用評分。就各方面而言,人們自己應該有責任對關於自己的算法決策進行跟蹤和仔細審查,或者說我們可能需要將此編碼到他們使用的數字平臺設計當中?責任是非常重要的一點,準確來說是因為在大範圍內進行估量和實施是非常困難的。

因此,在一頭栽進這個未知的領域之前,我們需要回答一個問題:我們想讓人類和人工智慧之間的關係成為什麼樣子?反思這些問題,我們才會設計出非決策性的、透明並且有責任感的算法,這些算法能夠辨別出個體當中複雜、發展和多方面的本質。

來自:機器之心編譯

相關焦點

  • 算法歧視?大數據折射人類社會偏見與陰暗
    而在大數據領域也有類似的說法,《自然》雜誌曾用BIBO表示Bias In, Bias Out,也就是說偏見進,偏見出。大數據可以理解成是社會的明鏡,能夠折射出人類社會中意識到的和沒意識到的偏見。如果整個社會對某少數族裔或者性別有偏見,那麼大數據也將在結果中展現出這種偏見。
  • 算法中的種族主義和性別歧視 | 人工智慧
    這通常被稱為算法偏差。很難確切知曉系統是如何易受算法偏差影響的,特別是因為這種技術往往在公司的黑匣子裡運行。我們常常並不清楚一個特定的人工智慧或算法是如何設計的,什麼數據幫助構建它,或者它是如何工作的。算法對個體的影響到底是什麼?這問題值得每個人深思一般來講,你只知道最終的結果:如果你在第一時間意識到了人工智慧和算法的使用,它對你有什麼影響。
  • Nature:對抗偏見,大數據算法需要更多責任
    從搜索結果到個性化廣告,算法在不知不覺中滲透進生活的方方面面。它既帶來的信息和方便也造成了很多隱性的不平等,甚至是偏見。然而算法造成的偏見該如何消除,它雖不像人類偏見那樣固執,但消除起來也沒那麼容易,涉及到公開算法使用的數據,以及算法本身的設計,然而這些又牽涉到設計算法的公司的隱私。
  • 你以為人工智慧看出了直或彎?它只是看出了偏見
    它只是看出了你的偏見) 近期,一份來自史丹福大學的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態進行分析,推斷出人物的性取向。但批評家卻認為,這只是披上了人工智慧外衣的偽科學和面相學。
  • 新趨勢:人工智慧被用來擬消除專職招聘人員的偏見
    研究發現,招聘人員和招聘經理也會將自己的偏見帶入到招聘過程中。他們經常選擇一些姓名和教育背景「聽起來挺合適的」應聘者。在各個行業,公司普遍缺乏種族和性別的多樣性——尤其是在公司權力階梯的最高層,代表性不足群體的人數還在不斷減少。在《財富》500強企業中,女性執行長的佔比還不到5%。
  • 當數據分析成了一門顯學,算法會左右你的終身大事?
    摘要: 你願意你的終身大事被算法安排嗎?如果有一天算法將比你更加了解你自己,你準備好相應的心智模塊了嗎?但我們有些時候卻不願相信算法幫我們做出的決策,尤其在面對人生的關鍵選擇時。最優停止理論:33歲後再選擇遇到最好的那個不遲例如,你願意你的終身大事被算法安排嗎?當一個程序告訴你,你應該和A結婚,儘管你覺得B更有魅力時,你會聽程序的安排嗎?
  • IBM: 人工智慧如何在企業決策中對抗人類偏見
    這些挑戰使克服心理偏見變得非常困難。人工智慧可以通過提供無偏見的、基於事實的分析和建議,幫助高管們做出更好的決策。它還展示了一種能力,可以發現以前未被檢測到的驅動程序和數據之間的關係,從而帶來了更好的業務解決方案和結果。例如,在過度自信和確認偏差的情況下,高管可以部署人工智慧,以確保分析所有可用的關鍵數據,並對所有潛在的業務因素進行適當的評估。
  • 以AI之名你還願意嗎?
    還記得,華為的麒麟970剛出來的時候主打AI,然後大家瘋狂吐槽AI性能有什麼用,835吊打,普通的SOC晶片算法裡也有AI,夠用了,之類的。反正,AI晶片打剛出來的時候就不被看好,甚至覺得是個無用功。又或者自動幫你穿衣自動幫你煮早餐自動駕駛甚至以後真的出現了人工智慧機器人呢?30年前不也無法想像到現在的手機這麼先進不是嗎?這樣你還會喊AI沒用嗎?
  • 「深度」價格歧視、選擇偏見、數據洩露,人工智慧這樣「看透」你
    當然,成為人工智慧共生體還需要很長一段時間,但不可否認的是人工智慧正在改變現有世界的運作方式。就目前我們在手機銀行使用的指紋識別、語音交互都是基於人工智慧技術實現的,除了這些看得見的人工智慧技術,當然還有許多看不見的AI應用。
  • 人工智慧算法工程師是吃青春飯嗎?
    誠然,人工智慧的發展是與時俱進的,人工智慧的未來也是不可限量的。人工智慧確實很好,也有很多人想借著這股勢頭加入進來,但是說到這裡,小編不禁想問,從事人工智慧行業真的有那麼好嗎?作為人工智慧行業的核心崗位「人工智慧算法工程師」是吃青春飯嗎?
  • 人工智慧教育應用的算法風險
    被簡約化的教育過程也因為失去了這些「神秘」元素而逐漸走向形式主義,將本來豐富多彩的教育生活和教育過程中的人簡約到像電腦行為一樣可以預測,其結果就是機器越來越像人,而人越來越像機器,教育活動喪失最根本的人格和人性,教育變得越來越沒有靈魂和情感。
  • 人工智慧還是人工智障?——大型算法翻車現場
    然而,在短短的12小時之後,Tay從一位友好的機器人變成了一個滿嘴髒話、充滿種族主義並說出「女權主義者都應該死在地獄裡燒死」惡魔機器人,這讓開發它的微軟經歷了場公關噩夢,微軟被迫迅速將Tay關閉,而這離它上線還沒有超過24小時;Tay是人工智慧映射人類偏見的一個縮影,目前的人工智慧算法最本質的規則就是它需要有大量的數據對其進行訓練
  • 把人做決策換成算法決策就公平了嗎?不見得
    因為在所有案例中,算法都有人類的參與,尤其是在搜集數據、制定決策、實現方式、解讀結果及因人而異的理解等方面,都會受到人類的左右。多數從事人工智慧醫學應用的研究人員,事實上並不打算用機器來完全取代醫生,他們只想利用人工智慧來幫助醫生,使他們的決策能更加準確和效率,並提高醫療質量。要知道,史上最強的從來不是人與機器中的一個,而是並肩協作的人類與計算機組成的團隊。
  • 人工智慧的底層邏輯究竟是什麼?是算法還是數據?
    有很多事情是相輔相成,互相依存的,只有結合在一起才能發揮出最大的作用,少了任何一樣都不行。 底層邏輯是什麼?這本身就還沒有達成有共識。
  • @所有高考生:「大數據」與「人工智慧」幫你填報高考志願啦~
    大數據在高考志願填報中究竟能發揮多大作用,AI人工智慧又是如何輔助考生完成志願匹配的。性格測試匹配出可對應的專業您喜歡中學開設的勞動技能課嗎?你想動手做汽車、輪船等小型的模型嗎?你熱衷參加集體活動嗎?你喜歡與人交往嗎……宋旭(化名)正在進行職業興趣測試,看似毫無關聯的問題,可能對他高考志願的填報及專業的選擇有著一定的幫助。這源於人工智慧+大數據。測試一共6組72個問題,只需回答是或否。
  • 人工智慧面試會有偏心的現象嗎
    招聘人員越來越多地使用人工智慧來進行第一輪篩選簡歷,並確定是否向你發布招聘廣告。這些工具通常會根據以前收集到的有關數據或類似求職者的數據進行訓練,因此可以減少招聘人員所需的時間和精力。2018年,在接受領英調查的招聘經理和招聘人員中,67%的人表示人工智慧節省了他們的時間。求職者可以在整個招聘過程中利用人工智慧,發布廣告、吸引潛在求職者,甚至預測求職者的工作表現。
  • 《科學》雜誌:人工智慧毀於學習人類種族偏見
    比如,「冰」和「水」會經常在文本中一起出現,它們的數字串也會更相似。然而,除了這些簡單的關聯之外,研究者們發現AI還被內嵌了一些更為複雜的關聯。比如,「女性」和「女人」會和一些藝術和人文方面的職業聯繫更密切,而「男性」和「男人」會和一些數學類和工程類的職業聯繫更密切。
  • 人工智慧的深度學習算法建立在大數據的基礎上
    人工智慧的深度學習算法建立在大數據的基礎上 工程師青青 發表於 2018-10-31 09:10:35 做人工智慧的都是靠腦力勞動的高級程式設計師嗎?
  • 人工智慧時代的算法裁判及其規制
    [12]這些算法在實踐中均有不同的適用對象和範圍。  目前, 以大數據、機器學習、人工智慧、算法等為核心的自動決策系統的應用日益廣泛, 從購物推薦、個性化內容推薦、保險評估等, 再到司法程序中的犯罪風險評估, 越來越多的決策工作為機器、算法和人工智慧所取代, 算法可以為人類社會中的各種事務和決策工作帶來完全的客觀性。[13]240算法裁判即是人工智慧對司法實踐影響的重要體現。
  • 命運和算法:一些人生重大決定算法替你做了,活在算法中的人們
    那個年代沒有大數據、算法。假如他活在今天呢?大數據、算法、人工智慧、網際網路、物聯網......科技的發展為人類生活帶來各種便利的同時,也在靜悄悄地決定著人們的生活軌跡和命運。大部分應用軟體還會從你的上網習慣和特點,以及地理位置等信息提取更多數據,關於你的數據。這些數據用來判斷你喜歡什麼,哪些內容吸引你的眼球,能讓你在網上流連。這個算法對你了解越多,對你生活的影響力就越大。 除了推送更多合你口味的內容,它自然還會用這個知識向你推銷產品。