歐巴馬被「去馬賽克AI」洗白,這項新研究惹上種族歧視麻煩

2020-12-04 澎湃新聞

賈浩楠 發自 凹非寺

量子位 報導 | 公眾號 QbitAI

還記那隻被眾網友玩壞的「最強馬賽克修復AI」PLUSE嗎?

前兩天我們報導了杜克大學發布在CVPR 2020的這項成果,還放出了一大波效果實測。

其中一張奧觀海同志復原圖引起了讀者SilverCasque的注意:

他留言說「還原的全是白人的臉,黑拳警告」。

沒想到這位讀者神預測,現在,PLUSE果然因此惹出了大麻煩。

就連深度學習巨頭LeCun出來為這項技術辯解,也被國外網友和同行炮轟。

PLUSE:不允許你不白

PLUSE一經推出就引起了極大的關注,但是,網友實際使用PLUSE,卻發現了一個很嚴重的問題:PLUSE無法準確還原有色人種圖像。

如果只是還原失敗,弄出一個不人不鬼的東西,最多只是技術問題。

但麻煩的是,PLUSE不僅還原出了完整的人臉,還是一張五官端正漂亮的白人臉。

這在如今高喊「黑命貴」的美國,無疑是一股扎眼的「逆流」。

有網友就拿歐巴馬的低像素照片反覆測試,結果無一不是白人男性,更加坐實了PLUSE的罪名。

隨後,知名機器學習博主Robert Osazuwa Ness拿不同有色人種的低像素照片去測試,這其中有他自己、有美國著名國會議員Alexandria-Ocasio Cortez,和華裔女星劉玉玲。

看到模特皮膚不夠白,PLUSE還十分執著地給他安上了一頭金髮…….真的是「不允許你不白」。

Alexandria-Ocasio Cortez是美國有史以來最年輕的國會議員,拉丁裔,也被強行洗成白人。

對於亞裔,PLUSE更不客氣,你甚至看不出一點人物原本真實的特徵。

比如博主Robert Osazuwa Ness自己的妻子:

華裔女星劉玉玲:

總之,在外國網友的測試中,PLUSE無一例外的把少數族裔強行洗白,似乎在有意糾正人們的膚色和五官特徵。

網友對此反映自然很激烈,有人認為這是一種帶有種族歧視的、非常危險的技術;

這一種觀點引起了較多共鳴,還有人緊跟著曬出了其他「種族偏見」的AI算法,比如這位一個將照片變成文藝復興風格的算法也將別人強行洗白:

有人乾脆給PLUSE起了個新外號:「白人雷達」

但是也有一部分網友認為,算法本身是沒有所謂「種族歧視」的,問題出在了用來訓練算法的數據集上。

PLUSE的核心StyleGan是在FFHQ上訓練的,有網友認為儘管它的人種多樣性好於嚴重偏向白人的CELEB-A,但仍然不夠。

有網友截取了一部分FFHQ的人臉數據集:

確實夠白的……但有人同時指出,除了數據集的偏差,還有一種可能是模型的崩潰失效,算法「偷懶」,僅僅把人像漂白,而不是為不同種族和面部特徵建模。

但也有人認為,即使用相同數據集訓練StyleGan也能生成非白人結果,問題還是出在算法上。

網友對PLUSE的口誅筆伐目前還沒有得到論文原作者的回應。

但另一位機器學習元老卻首先發聲了。

LeCun也中槍,到底冤不冤?

深度學習巨頭LeCun對於網友對PLUSE幾乎一邊倒的抨擊進行了回應:

他認為,機器學習系統帶有偏見是因為數據帶有偏見。假如在塞內加爾採集的數據上訓練,輸出肯定都是黑人。

隨後他還補充道,相比於這種純學術論文,這個問題應該是工程師更加關注的,實際部署中這種偏見會有嚴重的後果,盯著幾個學者討伐沒有什麼意義。

此話一出,頓時引起了同行的炮轟,外媒報導,一個可問責AI研究者Deborah Raji控訴LeCun:

對LeCun的言論十分震驚,這反應出了行業領軍人物的麻木不仁(lack of awearness)。

不明白像LeCun這樣處在如此關鍵位置的人,為什麼會認為學術研究對工程部署沒有影響。

社會的偏見不可能靠一個「正確」的數據集去解決。

LeCun對這樣的指責頗有些無奈,他對外媒說:

我從來沒說過學術研究無法在應用中確立規範。

我之前也在Facebook建立領導過致力於AI技術公平性的工作組。

其實,稍聰明的讀者都能明白,LeCun的意思是說,論文只是提供了解決問題的思路,實際應用中的問題複雜的多,這才是應該關注的。

藉由一篇論文的結果炮轟研究人員,以此標榜自己的政治正確、販賣觀點,這一點是LeCun不願意看到的。

技術本身是無罪的,國外炮轟PLUSE這一事件超出了技術本身,甚至也早就超出了科學倫理的範圍,這大概就是美利堅特色科研吧。

你怎麼看?

參考連結

https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-tool-pulse-stylegan-obama-bias

原標題:《歐巴馬竟被「去馬賽克AI」洗白,CVPR新研究惹上種族歧視大麻煩,LeCun也被捲入其中》

閱讀原文

相關焦點

  • 歐巴馬被強行「洗白」後,AI在藝術創作中又犯了種族偏見的大忌
    研究人員認為,以上輸出之所以存在偏見,根本原因應歸咎於訓練數據集的不平衡。主要體現在兩點上:一是數據集的收集受到了人為偏好的影響。例如,他們發現AI應用程式Portraits,其使用的45000幅文藝復興時期的肖像畫大部分是白人。二是數據集的標記可能存在不一致,或者是模型在學習標籤來注釋數據集的過程中產生了偏差。
  • 這種技術能將馬賽克人臉變為高清肖像,但應考慮避免種族歧視丨硬科技
    記者 | 徐詩琪1給圖片加上馬賽克很簡單,但若將馬賽克還原成清晰圖片卻很難。近日,美國杜克大學科研團隊推出了一款AI工具,能將馬賽克級別的模糊人臉,轉換為以假亂真的高清圖像。目前該算法僅針對人臉照片,經算法生成的新照片能夠呈現臉上的毛孔、皺紋甚至一縷頭髮。圖源:PULSE官網不過,算法生成的人像圖片與原始的真實人臉並不完全相符,它也不能被用於人臉識別。這些由算法新生成的高清人臉在現實中並不存在(當然,現實中的60億人裡或許有和他們長得相似的人)。還原馬賽克照片的工具早已有之。
  • 漢堡王道歉 新廣告被指涉嫌種族歧視惹爭議
    漢堡王道歉 新廣告被指涉嫌種族歧視惹爭議來源:聯商網2019-04-09 07:58聯商網消息:近期,漢堡王在紐西蘭推出越南風味雞肉漢堡,發布的廣告中顧客費力地用巨型筷子吃漢堡,引發網友不滿,譴責漢堡王涉嫌種族歧視。
  • 黑人洗成黃種人,三觀盡毀
    這提醒人們,中國對種族和皮膚顏色的歧視有多麼糟糕。英國每日鏡報:這是史上種族歧視最嚴重的廣告。肖恩(生活在中國的愛爾蘭人):中國人熱衷聘用白種人當外教。有幾次英語補習班請我過去任教,我無法分身,便推薦我認識的一位美國非洲裔朋友去應聘,沒想到被退貨。
  • 美國種族歧視竟是「常態」
    美國種族批判理論學者德裡克·貝爾的這一判斷,從來不缺乏現實註腳。今年5月,美國非洲裔男子喬治·弗洛伊德遭白人警察暴力執法致死後,以「黑人的命也是命」為代表的反種族主義運動迅速席捲全美,美國學者稱之為「美國歷史上規模最大的抗議活動」。美國種族歧視問題引起廣泛國際關注,來自國際社會的批評針針見血。
  • 避免種族歧視!跟隨推特腳步,摩根大通刪除黑名單白名單等術語
    避免種族歧視! 都在用的報告小程序 寫文章、做研究
  • 美國「國會的良心」去世,為反抗種族歧視曾被打碎頭骨
    他是最初的13名「自由乘車者」之一,這些黑人和白人民權運動積極分子在1961年挑戰了南方州際旅行中的種族隔離政策。他是「學生非暴力協調委員會」的創始人和早期領袖,該組織負責組織協調午餐櫃檯的靜坐活動。他幫助組織了「向華盛頓進軍」遊行,馬丁·路德·金是這次遊行中在林肯紀念堂臺階上的主要發言人。
  • Linux停用「黑名單」,因為這是敏感詞,涉嫌種族歧視
    原因當然是呼應現在美國一浪高過一浪的「BLM」反種族歧視運動。這一改動也得到了Linus Torvalds的同意。遲來一個月的表態Linux的覺悟,還是不夠快。但讓人猝不及防的是,Linux的替換名單,又惹上了新的麻煩。有Reddit網友指出,「denylist」、」blocklist」是公開攻擊TA的性別,因為自己和朋友的性別定義為「denylist」和」blocklist」。
  • 種族歧視——美國白左的政治碰瓷秀
    在民主黨為代表的左派來看,黑人如今遭遇的所有貧困、犯罪、單親家庭等問題,都可以統統歸結到種族歧視這一萬能原因上,「白人歧視黑人」更是成為了黑人作奸犯科的保護傘。事實上,如果我們稍微加以分析,就可以發現民主黨的這一套話術是有多麼可笑。
  • 新冠疫情下,海外家長新課題:如何向孩子解釋種族歧視?
    一篇發表在《澳大利亞醫學雜誌》上的論文闡述稱,這一次新冠疫情的爆發導致的種族歧視對他們的傷害,會在他們的心理、社交、情感和身體健康上有更深遠的負面影響。 「我們的最新研究發現,澳大利亞小學適齡在遭受種族歧視後在炎症、血壓和肥胖方面面臨更高的風險,這些都是已知的晚年心血管代謝疾病的標誌,如糖尿病、中風和心臟病。」 「種族歧視的經歷實際上會影響兒童的身體健康、免疫和炎症系統……以及精神健康問題,如抑鬱、焦慮、行為問題,甚至自殺風險。」
  • 種族歧視:一個主義,多重面具
    在新冠肺炎疫情衝擊下,反種族主義在美國更加任重道遠。 三大表現形式種族主義是一種意識形態,也是一種社會行為:它相信不同種族或膚色可以解釋人與人之間特徵及能力上的差異,相信一定的種族優於其他種族;它還是一種憑藉種族或膚色判斷而引發帶有偏見或歧視傾向的言行。
  • 哈裡斯上封面膚色疑遭「洗白」,被要求「辭職謝罪」的美版《時尚...
    【環球網報導 見習記者 侯雅齡】美國當選副總統哈裡斯上美版《時尚》封面膚色疑似被「洗白」,有人要求總編「辭職謝罪」後,據英國廣播公司(BBC)當地時間12日消息,美版《時尚》雜誌總編安娜•溫圖爾回應稱,相關照片只是想突出哈裡斯的成功。
  • 毛髮、皮膚纖毫畢現,AI去馬賽克這麼神奇的嗎?
    馬賽克從本質上講,就是一種將原畫面模糊化,並且打亂色塊分布,從而讓人不能知曉完整畫面的遮蓋手段。這種手段往往是為了遮擋一些不健康、較私密的畫面,在電影中是為了遮蓋一些讓人感到強烈不適的鏡頭,在圖冊中則是為了遮蓋圖片中的某些區域或者元素。馬賽克誕生之後,去馬賽克的嘗試也隨之而生。隨著AI技術的快速發展,用它來去馬賽克也成為了諸多研究者技術攻關的重要課題。
  • 耶魯大學被批種族歧視偏愛黑人?不但歧視亞裔,還歧視白人……
    就在近日,耶魯大學遭到指控稱,這所世界著名學府的招生竟然也參考種族膚色,而且專門歧視亞裔和白人學生! 在美國,種族歧視一直都是特別敏感的話題,一旦被冠上種族歧視,聲譽肯定大受影響。 因此,這樣的指控對於名校耶魯大學來說無疑是殺傷力巨大的打擊。 然而,這次的這個指控並不是來自其他人,而是來自美國的司法部。
  • 美國種族問題的兩副面孔:不說出口的歧視和被濫用的政治正確
    5月25 日,弗洛伊德在明尼阿波利斯市遭白人警察跪壓頸部近9分鐘後死亡,此事在美國多地區引發了持續數周的反抗種族歧視的遊行、示威,甚至暴力活動。事實上,弗洛伊德的事件不是個例,種族歧視的鬧劇不止一次地在這片土地上演。今年2月,黑人青年艾哈邁德在慢跑時被沿途的一對白人父子槍殺,而白人父子遲遲未遭逮捕,還辯稱他們懷疑艾哈邁德是個竊賊。
  • 非洲各界密集發聲譴責美國種族歧視和暴力執法
    多國政府、官員、媒體及民眾密集發聲,譴責美國種族歧視現象和執法人員公然踐踏人權的行為。當地時間5月25日,美國明尼蘇達州明尼阿波利斯市一名警察在逮捕非裔男子喬治·弗洛伊德時,將其按在地上,用膝蓋頂住脖子。弗洛伊德被送往醫院後不治身亡。(視頻截圖)非洲聯盟委員會主席法基5月29日發表主席聲明,強烈譴責美國執法人員對弗洛伊德的「謀殺」。
  • 【全球囧聞】網絡表情都要「反種族歧視」,考慮過胖子的感受嗎?
    西方媒體怒不可遏,稱此為「赤裸裸的種族歧視」,甚至表示將尋求與中方人員交涉。而大多數天朝小夥伴看到此消息之後一頭霧水,表示:好心提醒大家不安全的地方不要去,怎麼就變成了種族歧視了呢? 「種族歧視」的把柄……這些問題上,可以說是外媒太過敏感,也可以說是本土受眾太不敏感。
  • 吳恩達寄語:6大主題回顧AI圈兒的2020
    機器學習工程師們,作為線上生活的藝術家,他們設計了新冠病毒的診斷和治療工具,建立了識別仇恨言論和虛假信息的模型…… 世界各地的機器學習研究人員爭相利用這項技術對抗冠狀病毒。在許多失敗的案例中,他們在檢測、接種和其他領域取得了重要的成功。
  • 中國為什麼沒有種族歧視?吃瓜群眾:地域歧視比種族歧視更可怕
    在美國,種族歧視更加嚴格,他們在17世紀專門為黑人制定了法律,並實行種族隔離,黑人沒有資格與白人一同上學,也甚至不能乘坐白人乘坐的交通工具,更不能與白人通婚。黑人站在白人人群中,他就像個異類,不會有人同情他,只會傳來刺耳的嘲笑,他沒有做錯什麼,只是因為他是黑人,所以受到了不平等的待遇。