你以為人工智慧看出了直或彎?它只是看出了偏見

2020-12-25 網易科技

(原標題:你以為人工智慧看出了「直」或「彎」?它只是看出了你的偏見)

近期,一份來自史丹福大學的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態進行分析,推斷出人物的性取向。

但批評家卻認為,這只是披上了人工智慧外衣的偽科學和面相學。這些早已被西方科學世界摒棄的落後觀念,如今在新科技的掩飾下,重新抬頭。

研究的狹隘性

斯坦福的研究給出了一個看似很高的判斷精確度:當人工智慧對單張照片分析時,它猜對圖中男性性取向的機率為81%,而女性則為71%。

當每位被分析人物的照片增加到 5張時,算法分析男性和女性的性取向正確率分別高達 91%和 83%。

但問題是,研究人員在測試時,是按兩人一組的形式並行測試,每組人物一「直」一「彎」,因此,即使人工智慧只是瞎矇,都能有 50%的準確率。

而且,研究人員聲稱算法的分析只專注於五官研究,而採用的 VGG-Face 軟體可最小化流動性因素,如打光、姿勢和表情等的幹擾。

但人工智慧面部識別方向的研究人員 Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。

(圖自推特)

再者,這個被作為研究的基本數據(來自約會網站的圖片)本身就是有偏見的。

來自美國歐柏林大學的社會學教授 Greggor Mattson 指出,由於這些照片是從約會網站中抓取的,意味著,這些照片本身就是由用戶專門精選,用來吸引特定性取向的人。

也就是說,這些照片都是用戶演繹出來,迎合他們認為社會對該性取向人群的定位,換言之——刻板印象。

雖然研究團隊也曾將算法拿到研究以外的素材進行測試,但那些素材本身也是具有偏見的。畢竟,並不是所有男同志都會給「我彎我自豪」這類頁面點讚,而有點讚的人,也許也可能會趨於迎合特定刻板印象。

而他們所忽略的,是這個群體中所包含的,無數的無規律的非典型行為。

(圖自 Rebel Circle)

這個研究的主負責人 Kosinski 也表示,他的研究也可能是錯的,並表示「想要核實結果正確性,我們還得進行更多研究。」但如何才能確定研究不會帶有偏見呢?對此,Kosinski 的回應是:

想要測試和驗證一個結果的正確性,你並不需要理解(研究)模型的工作原理。

而 The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導性。

人工智慧也是人類帶著偏見製造的新工具

(圖自 the verge)

在歷史的長河上,人類將自身偏見投射於當時最好工具的例子一直都很多。

而將人類外表和人的個性和本質關聯的觀念,從古希臘時期就已經存在了,而到了 19世紀,更是被工具賦予了「科學」的假象。

當時的面相學研究者認為,人類額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個人是誠實還是有犯罪傾向的例證。雖然這些說法早已被判斷為偽科學,但如今卻在人工智慧時代「重獲新生」。

(圖自 the verge)

去年,來自上海交大的研究團隊還聲稱研發了一個辨識罪犯的神經網絡系統,引來了人工智慧社區怒斥,三名來自 Google 的研究人員更是撰寫萬字長文批評這些研究者。

而一家名為 Faception 的新創企業也聲稱可以通過面容分析來識別恐怖分子。

(圖自 Faception)

但是,人工智慧就真的可以客觀地分析和研究這些數據嗎?澳大利亞國立大學的社會學講師 Jenny Davis 並不同意:

人工智慧並不是真的純「人工」。

機器學習的方式就和人類學習的方式一樣。我們從文化中提取並吸收社會結構的常態,而人工智慧也是這樣。

因此,它(人工智慧)也會再建、擴大並且延續我們人類為它們設下的道路,而這些道路,一直都將反映現存的社會常態。

而無論是根據面容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基於社會原有生物本質主義(biological essentialism),這是一種深信人的性取向等本質是根植於人身體的理論。

Davis 還指出,這些是「很有用」的理論,因為它可以從特定人群中提取出某種特質,並通過將該特質定義為「次要、劣勢」,來成為原本就有偏見的人群進行歧視的「正當理由」。

(圖自好戲網)

今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似 IAT(內隱聯想測驗)的聯想類測試來檢測算法的潛在傾向性,並發現即使算法也會對種族和性別帶有偏見。

甚至,連 Google 翻譯也難逃偏見,算法「發現」並「學習」了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉而翻譯為「他」或「她」。

說到這裡,也許大家已經可以看出,Kosinski 和 Wang 研究(斯坦福研究)的精確性已經不是最重要的了。

如果有人想相信人工智慧可以判斷性別取向,(無論準確度如何)他們都會拿來用。

因此,更重要的,是我們要理解人工智慧的限制性,並在它造成危害之前中和它。

The Verge 評論道。但最麻煩的,在於大多數時候,我們都沒法察覺到自身存在的偏見,那我們又怎樣可期望我們做出來的工具是絕對公正的呢?

本文來源:愛範兒 責任編輯:侯維鋮_NT4124

相關焦點

  • 難倒許多人的三維立體圖你看出了幾個?網友紛紛表示眼睛都直了
    我們平時一般看到的都是平面圖片,視覺的第一反饋就是結果,這是很簡單的圖片類型,而三維立體圖可就不同了,它是通過計算機完成的單幅立體圖,所以觀看的方式也有所不同,像一個小遊戲一樣,當成功看出的時候會發現裡面有一個有趣的世界。這聽似簡單的圖片類型卻難倒了許多人,有網友在網上放出了一些三維立體圖邀請大家一起來觀看,然而卻難倒了許多人。
  • 水災、旱災、地形與氣候、河流的截彎取直
    ①從圖中可以看出,水旱災害主要分布在我國的東部地區,其中水災主要分布在南方,旱災主要分布在北方;②從表中可以看出,我國的水旱災害的頻次較高,並且由南向北,頻次逐漸增加。其中不論南方還是北方,水災次數均大於旱災。(2)分析水災嚴重的原因。
  • 怎樣看出別人討厭你
    被周圍的某個人討厭,會不會讓你很尷尬?當你還傻傻的以為沒什麼,TA卻在暗地裡各種嫌棄,當你發現之後,會不會覺得自己很傻呢?一直傻傻地信任著TA。當你察覺不對勁的時候,還是儘早去確認吧。說話時,與你保持一定的距離。
  • IBM: 人工智慧如何在企業決策中對抗人類偏見
    這些挑戰使克服心理偏見變得非常困難。人工智慧可以通過提供無偏見的、基於事實的分析和建議,幫助高管們做出更好的決策。它還展示了一種能力,可以發現以前未被檢測到的驅動程序和數據之間的關係,從而帶來了更好的業務解決方案和結果。例如,在過度自信和確認偏差的情況下,高管可以部署人工智慧,以確保分析所有可用的關鍵數據,並對所有潛在的業務因素進行適當的評估。
  • 新趨勢:人工智慧被用來擬消除專職招聘人員的偏見
    一些公司不再依靠人們的感覺來做招聘決定,而是使用機器學習來檢測工作所需技能「人們會基於無意識的偏見來挑選自己喜歡的人」人工智慧有望讓招聘流程成為一個沒有偏見的烏託邦。博羅卡斯的研究發現,在招聘流程中運用機器學習,就像用它來進行面部識別一樣,有可能導致無意識的歧視。算法可能攜帶著程式設計師的內隱偏見。或者算法可能被歪曲了,從而青睞某個特定數據集以壓倒性優勢展示的特定品質和技能。「如果你用來訓練系統的例子不包括某些類型的人,那麼在評估這些人時,你開發的模型可能會表現得非常糟糕,」博羅卡斯解釋道。
  • 如何從走姿坐姿的體相,看出你一生的運數?
    面對人工智慧,我們改變不了科技的進程,但是,我們可以改變自己,以及我們下一代的知識結構。有學者分析,面對步步逼近的人工智慧,你有三個選擇:1、要麼積累財富,成為資本大鱷 2、積累名氣,成為獨特個體 3、積累知識,成為更高深技術的掌握者 這也就是為什麼近日,國家突然宣布:2030年一定要搶佔人工智慧全球制高點,還要在中小學設置人工智慧課程!
  • 八卦的AI,可知道你是直還是彎
    技術無法識別人們的性取向,所謂的技術未來只是識別出網絡中同性戀者頭像存在相似的某種模式。而且,此研究存在的一個問題在於,研究的機制是通過兩張圖片二選一其中最讓機器覺得「更可能是同性戀」的照片,這種對比判斷其實是從 50% 的隨機機率開始計算的,因此與單純對一張圖的分析有著很大的區別。
  • 心理學:男人抱你的方式,能看出他對你是怎麼樣的愛,準!
    而這其中擁抱又跟其他情感表達效果會有那麼一點不一樣,擁抱會根據力度位置都會表達出當時他內心的情緒,那麼讓我們看看如何通過男人抱你的方式,看出他對你是怎麼樣的愛。1從背後抱你他能從背後擁抱你,說明彼此都是非常信任的人,這表明他不僅信任自己也一樣信任你,這種男人責任感會很重,他知道今後他的胸膛是你的依靠,讓你在他的懷裡找到歸屬感。也堅信自己可以給你未來的生活提供保障帶來幸福,喜歡後背擁抱的情侶她們更注重精神上的滿足和交流。
  • 怎樣消除機器人的「偏見」?先從消除人的偏見做起
    你有沒有想過這樣的問題:Alexa、Siri、Cortana(小娜)、Google Assistant 等等虛擬語音助手,性別都是女的?在西南偏南大會上,幾位從事對話人工智慧 ( conversational AI ) 行業的女性專家告訴我,這當中既有偏見,又有道理。
  • 彎黃瓜和直黃瓜哪個好,新鮮美味最重要
    現在網上流傳著「有花的黃瓜打了激素不能吃,彎的黃瓜不能吃」等說法,接下來就讓亮健好藥君為大家解答一下這些關於黃瓜的說法究竟是真是假。一、黃瓜有哪些營養?從營養價值的角度來看,黃瓜每100克的熱量僅16千卡,水分含量約佔95%,目前為止是熱量最低的蔬菜。
  • 第一眼以為是車禍現場?終於看出破綻:哈哈,司機大哥你太有才了!
    如果你仔細看你還確定嗎!還是一個人嗎!據說這張圖有23個人,你全部找到了嗎?這張圖你能夠分得清楚,哪一面牆是裡面,哪一面牆是外面嗎!你們能夠看出來嗎?我反正是看暈了!一定要認真看!!!攝影師是從天上90度向下拍這張照片的,白點才是駱駝,黑色的是駱駝影子。
  • 麥迪娜發姜潮自拍照,以為會被誇美,誰知被老公一眼看出過度美顏
    麥迪娜發姜潮自拍照,以為會被誇美,誰知被老公一眼看出過度美顏。 本以為夫妻倆都是相處很久的伴侶,妻子們對於發給老公的自拍照就會相當隨意的拍一張發過去就好了,畢竟素顏的樣子都見過的,但是沒想到每一位妻子都極其認真和講究,尤其是麥迪娜發給姜潮的自拍照,本以為會被姜超誇美的,但是沒有想到姜潮看到後,第一眼就看出來是過度美顏的照片了。
  • 判斷異性是不是喜歡你,這幾點就可以看出,否則你只是普通朋友
    其實男女之間互相接近,產生了不同於同性之間的友誼,兩個人都盼望著解讀對方的心靈,也盼望著對方解讀自己,所以這樣的兩個人就走的越來越近,最後成為了知己藍顏,但是其實有的時候友誼只是一個過渡期,下一步往往就是愛情。
  • 人總會變的,你以為的只是你以為的
    人從出生開始,他的世界也許是倒立的,只是很快他的世界就會跟我們看到的一樣,立體而形象,成長的過程,就是一張白紙塗鴉的過程,環境與教育主導著孩子成長的曲線,醜小鴨能不能長成美麗的白天鵝,也要綜合來看,而潛移默化所行成的習慣,也會隨著年齡、生理、心裡、環境的改變而改變,改變是必然的,沒有一成不變的事物,就像一日的日光,也是在悄然移動,改變這方位。
  • Science新研究證明人工智慧也能學會偏見
    於本周發行的新一期 Science 期刊上就刊登了一項有關的研究結果,其表明人工智慧也能習得人類的種族和性別偏見。機器之心在這裡編譯了 Science 網站上對於該研究的介紹以及該報告的摘要和部分結果,相關原文請點擊「文末閱讀」原文查閱。
  • 寶寶多大就能看出「俊不俊」?教你一招不用再等孩子長大
    導讀:寶寶多大就能看出「俊不俊」?教你一招不用再等孩子長大各位點開這篇文章的朋友們,想必都是很高的顏值吧,我們真的是很有緣哦,小編每天都會給大家帶來不一樣的育兒資訊,如果對小編的文章或者其他的什麼,有什麼一些意見的話歡迎在下方積極評論哦,小編每條都會認真看的。那麼本期的內容是:寶寶多大就能看出「俊不俊」?教你一招不用再等孩子長大!那麼我們就來看看吧!
  • 《科學》雜誌:人工智慧毀於學習人類種族偏見
    )的方法來測試AI固有的一些偏見。論文的另一作者、普林斯頓大學的Arvind Narayanan說道,「我們之所以選擇分析詞彙內嵌,很大的一個原因就是它在過去幾年中大大幫助了AI理解我們的語言。」 具體來說,人類語言的詞彙是以一串數字的形式輸入計算機的。研究者在不同的維度上衡量一個詞彙的意義,並賦予一個數字,形成一串數字。數字主要是基於與這個詞彙頻繁聯繫在一起的其他詞彙給定的。
  • 只為遇見你,大結局於毅原諒高潓了嗎?對比兩人前情就能看出
    樂哥娛樂說和大家分享一下只為遇見你中,大結局於毅原諒高潓了嗎?對比兩人前情就可以看出。我們都知道,只為遇見你大結局了,高潔於直這兩個相愛的人歷經磨難終於在一起了,最後兩人結婚也是甜翻全場,高潔和於直的結婚禮服更是要點一個大大的贊,真的太漂亮了,果然還是中國風的衣服更有韻味和內涵,比著西式的婚紗更是經久不衰且耐人尋味。
  • 婆媳關係相處如何,從幾件事看出
    從以下幾件事可以看出,你們婆媳關係相處的如何。 1. 婆婆對待孫子的態度 對孫子,孫女公平對待,沒有說偏心誰,討厭誰。 因為有寶媽抱怨自己生了女兒,婆婆對這個女兒都不怎麼上心,開始寶媽以為老人只是重男輕女思想才這樣,直到她老公的妹妹也生了個女兒,才發現並非如此。婆婆對待自己女兒生的這個孩子別提多上心了。後來提起,可能是因為自己和婆婆相處關係不太好,所以對待兩個孫女的態度都不一樣。 所以由婆婆對待孫子的態度也可以看出婆媳關係如何的。
  • 機電設計中的數學之美——羊角螺旋讓你平穩過彎
    本文主要介紹貝加萊柔性電驅輸送系統的過彎設計。本次IAS貝加萊將展出SuperTrak和ACOPOStrak柔性電驅輸送系統。本文主要介紹貝加萊柔性電驅輸送系統的過彎設計。貝加萊SuperTrak的軌道設計存在著秘密:直線段與兩側的彎道過彎設計曲線採用了「羊角螺線」也稱「歐拉螺旋線」。