在人工智慧愈發普及的當下,越來越多的地鐵、商場或其他公共場所,都已出現了人臉識別的儀器。
按理說,這樣先進的技術,本該讓人們的生活更便捷,更自由。然而,在某些時候,這些技術非但沒能造福人類,反而揭開了人類社會中最醜陋的傷疤。
比如,最近一種新的AI去馬賽克算法PULSE,就犯了「種族歧視」的大忌,將美國前總統歐巴馬打了馬賽克的圖片識別成了白人。
在美國的BLM(黑命貴)運動愈演愈烈的背景下,怒不可遏的大眾在網上開始了對AI技術的又一輪口誅筆伐。
而網友們怒罵的火力,全都集中在了一個名叫楊立昆的AI大神身上。
這位大神之所以躺槍,是因為身為FB公司首席AI科學家,並且拿過圖靈獎的他,實在不忍看到AI技術遭到大眾如此誤解與貶損,於是便在推特上為PULSE算法「出頭」辯護。
楊立昆解釋說,這種情況往往是由於數據偏差導致的,PULSE算出來的人臉之所以傾向於白人,是因為神經網絡是在FlickFaceHQ上訓練的,而上面的大部分照片都是白人。
儘管楊立昆的解釋已經十分冷靜與客觀,但怒火中燒的網友仍將種族歧視的帽子扣在了他頭上,並對他展開了鋪天蓋地的謾罵。
最後,這位被網友「噴怕了」的AI大神,不得不宣布退出了推特。
不過,雖然楊立昆選擇了主動避退,但人們對於「AI歧視」的爭議卻不會就此終止,實際上,這次AI識別技術的失誤,只是眾多類似事件中的一角。
早在2015年,谷歌就在自己的網站中,加入了一個通過機器識別照片中的內容,並自動打標籤分類的功能。
谷歌推出這項功能的初衷,本是為了方便用戶管理和搜索。然而,這個心智不成熟的AI,卻在實際操作中「抽風」,將一位黑人程式設計師和其女友的照片打上了「Gorilla」(大猩猩)的標籤。
頓時,黑人程式設計師小哥心中一陣MMP……
而這樣的情況,也讓人禁不住發問:為什麼現在連AI也開始沾染上人類「歧視」的惡習了呢?
實際上,AI 本是一種工具,本身並無偏好與喜惡,而AI所具有的「歧視」與「偏見」,往往是背後算法訓練的數據所導致的。
目前的人工智慧背後需要即為大量的數據去訓練,儘管人工智慧本身並沒有「歧視」與「偏見」,但背後數據的研究人員卻會因為個人的因素,以至於在訓練數據的選擇上就會產生偏向性。
通常情況下,在創建 AI 算法的過程中會有許多工程師參與,而這些工程師通常來自高收入國家的白人家庭,他們的思想、價值觀與階層意識,都導致了經由他們製造出來的 AI ,也不可避免地帶上了與之類似的色彩。
如果用於訓練的數據裏白人比黑人更多,那顯然白人的識別率就會更高。
然而,儘管人工智慧在被製造的過程中,會不可避免地受到人類研究者的影響,但人類卻學會了用一種「AI制AI」的方式,來消解人工智慧可能存在的偏見。
比如,舊金山就曾經推出過一種「偏見緩解工具」,該工具使用人工智慧技術自動編輯警方報告中的嫌疑人種族等信息。它的目的是在決定某人被指控犯罪時,讓檢察官不受種族偏見的影響。
根據舊金山地區檢察官辦公室的說法, 這個工具不僅會刪除關於種族的描述,同時還會進一步刪除關於眼睛顏色和頭髮顏色等可能有意無意對檢察官造成暗示的信息,甚至地點和社區名稱也將會被刪除。從而避免歧視現象的發生。
由此可見,人工智慧所帶有的「偏見」,並非一個無法消除的弊端,經過人們對算法的改進,以及完善研發之初的測試和驗證,就能避免在後續研發過程中AI無意識創造「偏見」。
而類似偏見緩解工具這樣的AI技術,也進一步說明了,AI的發展並非會真的加深人類社會中固有的歧視,相反,它有可能會為糾正這種人類數千年來的痼疾提供一個新的解決方案。
而這,也正是人工智慧技術發展的初衷之一——讓更多的人平等而有尊嚴地生活下去。
(文章部分圖片源自網絡,如有侵權請聯繫刪除)