人工智慧也搞歧視!研究發現AI生成的藝術作品存在種族、性別偏見

2021-01-10 站長之家
人工智慧也搞歧視!研究發現AI生成的藝術作品存在種族、性別偏見

站長之家(ChinaZ.com)12月29日 消息:隨著人工智慧技術研究不斷推薦,由算法生成的藝術作品的受歡迎程度也在持續增長。從創作繪畫到發明新的藝術風格,基於人工智慧的生成藝術已經在一系列的應用中展示。

富士通(Fujitsu)研究人員在一項新研究中,調查了偏見是否會滲透到用於創造藝術的人工智慧工具中。根據模型,他們聲稱目前的人工智慧方法沒有考慮到社會經濟的影響,並表現出明顯的偏見。

據悉,研究人員調查了使用人工智慧生成藝術的學術論文、在線平臺和應用程式,選擇了專注於模擬現有藝術風格的例子。為了調查偏見,他們考慮了最先進的人工智慧系統在各種藝術風格方面的訓練成果,包括:

研究人員通過使用一個稱為「directed acrylic graphs」(dag)的因果模型分析表示,他們能夠識別人工智慧生成藝術品的相關方面,以及這些不同方面是如何相互影響的。

在一個案例中,他們發現DeepArt(注:這是一個讓用戶按照其他藝術家的風格重新繪製圖片的平臺),沒有考慮到將費爾南德·萊熱的立體派作品《螺旋槳》轉化為未來主義風格的運動。

其中有些偏見比其他問題更有害。GoArt是一個類似DeepArt的平臺,它將克萊曼婷·亨特的《黑矩陣女主角》的面部顏色從黑色改為紅色,將其轉化為表現主義風格。另一個AI生成的藝術工具,「Abacus」將拉斐爾和皮耶羅·迪·科西莫作品中留長髮的年輕男性錯當成了女性。

研究人員將這些問題歸咎於用於訓練生成人工智慧模型的數據集失衡,他們指出,這可能受到數據集管理員偏好的影響。例如,研究中提到的一款應用「人工智慧肖像」(AI Portraits)使用了4.5萬幅文藝復興時期的肖像畫,其中大部分是白人。根據研究人員的說法,另一個潛在的偏差來源可能是標記過程中的不一致。不同的注釋者有不同的偏好、文化和信念,這些可能反映在它們創建的標籤中。

研究稱,「在藝術流派(例如大量的照片vs少量的雕塑)、藝術家(例如大部分的歐洲藝術家vs少數的本土藝術家)、藝術運動(大量關於文藝復興和現代藝術運動的作品,而不是用其它作品)等方面可能存在不平衡。另外,描述不同種族、外貌等信息也沒有納入數據集,因此造成了代表性偏見。

研究人員警告說,錯誤地建模或忽視某些微妙的信息,生成藝術可能會助長對過去社會、文化和政治方面的錯誤認知,並阻礙了解重要歷史事件。

相關焦點

  • AI的偏見:機器就是絕對理性的麼?
    人們很難定義什麼是公平的人工智慧。以下是我能想出的最好的定義:對於社會歧視影響下的特定任務,如果給定的人工智慧模型能夠輸出獨立於敏感性參數(例如性別、種族、性取向、宗教信仰、殘疾等)的結果,那麼這個人工智慧模型就是公平的。本文將討論人工智慧偏見,與之對應的真實例子,及其解決方法。
  • AI 也有種族「偏見」?
    不僅僅是歐巴馬,通過同樣的算法輸入低解析度的女演員 Lucy Liu 的照片或女議員 Alexandria Ocasio-Cortez 的照片生成的圖像面孔看起來明顯是白色的。國外社交網站一則推文引用了歐巴馬的例子說:「這張圖片充分說明了人工智慧存在偏見的危險。」
  • Science新研究證明人工智慧也能學會偏見
    於本周發行的新一期 Science 期刊上就刊登了一項有關的研究結果,其表明人工智慧也能習得人類的種族和性別偏見。機器之心在這裡編譯了 Science 網站上對於該研究的介紹以及該報告的摘要和部分結果,相關原文請點擊「文末閱讀」原文查閱。
  • AI存偏見和歧視?算法讓用戶喜好趨同?科學家給出證據
    &nbsp&nbsp&nbsp&nbspAI存在偏見和歧視,算法讓用戶喜好趨同?&nbsp&nbsp&nbsp&nbsp人工智慧可以幫助商家獲得客戶喜好,但同時也在逐漸根據用戶的反饋,形成喜好偏見,讓用戶的需求同化。不僅如此,在人臉識別領域,算法自帶的歧視和偏見導致的問題,已經引發了諸多爭議。
  • 那些困擾博士後的種族和性別偏見
    在2012年,Moss-Racusin發表了一項研究,該研究發現,生物學,化學和物理學的教師在審查實驗室經理職位的申請後,更喜歡叫約翰(John)的申請者,而不是詹妮弗(Jennifer)的相同申請者。她說,這項新研究今天發表在雜誌上,是一項重要的進步,因為它可以操縱種族和性別。「它當然支持許多軼事發現,自我報告,相關數據,但真正擁有一些艱難的實驗數據……確實非常重要。」
  • 你認為AI對你會有偏見嗎
    你認為AI對你會有偏見嗎 人人都是產品經理 發表於 2019-10-18 16:44:29 近日,麻省理工的博士生在兩項獨立研究中發現,雖然機器擅長識別人工智慧生成的文本
  • 你以為人工智慧看出了「直」或「彎」?它只是看出了你的偏見
    但人工智慧面部識別方向的研究人員 Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。(圖自推特)再者,這個被作為研究的基本數據(來自約會網站的圖片)本身就是有偏見的。而 The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導性。人工智慧也是人類帶著偏見製造的新工具(圖自 the verge)在歷史的長河上,人類將自身偏見投射於當時最好工具的例子一直都很多。
  • 數據告訴你,論文引文裡有多少性別偏見
    歧視或偏見仿佛一隻 「無形的手」,雖然看不見摸不著,但又是確確實實存在的,阻擋著女性的學術發展道路。撰文|瑾 巖責編|王一葦近年來,隨著性別平等意識提升和性別不平等相關研究增多,科學界的性別不平衡問題日漸凸顯。
  • 你的照片到底被AI標上了什麼標籤?基準測試看看誰更「偏心」
    ImageNet圖像數據集通常被圖像分類AI模型用作訓練集,它包含大量從網際網路中抓取的照片,這也意味著如果模型是基於該數據集訓練,那有極大可能會自動「繼承」其在種族、性別、體重等方面的偏見。卡內基梅隆大學和喬治華盛頓大學的科學家們近期開發出了一種新穎的方法,用於量化如種族和性別等社會偏見與圖像之間的關聯,並在研究過程中發現圖像模型確實在網絡圖片中自動學會「刻板印象」。
  • 人工智慧助手的性別平權之路
    在一個由機器、AI和機器學習主導的未來,乃至人機相融的未來,生理上性別的區隔和枷鎖需要被打破。不久前的錘子發布會上,羅永浩發布了自家研製的智能音箱產品,同時提及了國內智能音箱廠商對智能音箱的定位限於女性,甚至「把音箱的人設搞成女僕甚至女奴」的現狀。
  • AI把黑人認成了黑猩猩,如何避免AI也染上歧視惡習?
    比如,最近一種新的AI去馬賽克算法PULSE,就犯了「種族歧視」的大忌,將美國前總統歐巴馬打了馬賽克的圖片識別成了白人。在美國的BLM(黑命貴)運動愈演愈烈的背景下,怒不可遏的大眾在網上開始了對AI技術的又一輪口誅筆伐。
  • 新冠疫苗也種族歧視?MIT研究:疫苗對亞裔無效率是白人的250倍
    尤其是率先「衝線」投入使用的輝瑞和Moderna研發的mRNA疫苗,已經在美國接種,儘管有著安全性高、研發快的優點,但是這兩個新疫苗也被發現存在意想不到的缺點——「種族歧視」。 根據MIT計算機科學與人工智慧實驗室(CSAIL)的一項新研究顯示,這種疫苗的有效率存在種族差異。
  • AI將非洲人標為大猩猩 創建無偏見機器人有多難?
    這其中存在一個問題,因為同樣被用於訓練機器學習算法的數據,也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機器學習算法往往會選擇迎合其開發者的品味和偏見。更複雜的是,許多公司都以非常隱秘的方式運行內部算法,並把它們視為商業機密。機器學習初創企業Beauty.ai今年舉行了世界上首場AI驅動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。
  • 偏見與歧視,為何時時都在毒化社會和心靈?
    Y先生:但最近的一項研究顯示,猶太人在銀行業中所佔的百分比是微不足道的,比非猶太人的比例要小得多。X先生:所以說,他們就沒興趣從事正當行業;他們只做演藝圈的生意或者開夜總會。對話中,X先生的發言示範了常見的偏見言論和觀念,是如何被錯誤的合理化。《偏見的本質》書中將偏見導致的行為進行了排序:仇恨言論、迴避、歧視、身體攻擊、種族清洗。
  • 偏見是自身價值體系的反射——讀《偏見的本質》
    這部作品以其非凡的預見性,挖掘前因後果的洞察力,以及步步深入的縝密推斷和分析,成為推動社會改造的強大力量,促使有關偏見的研究迅速發展為熱門的學科課題,並且成為美國行政部門和社會公共服務等部門做出決策時的一個經常參照。 先來回顧一段歷史。
  • 如今的AI圖像分類器還是「睜眼瞎」
    但在過去的十年中,ImageNet一直都是人工智慧研究人員所依賴著名的訓練數據集,ImageNet有一個「對象識別集」:對「人物」的分類——即著名的ImageNet分類實驗,這其下包含了達2833個子類別且各個子類別下都包含了上百張圖像,每個子類別都在試圖幫助軟體完成看似不可能的人類分類任務。但這其中卻存在明顯的短板:它通常很難去識別人。
  • 瑪雅·安吉洛:移民想像中不再有種族偏見但有方式不同的歧視
    瑪雅·安吉洛的一生及其作品,都與種族主義、女性等相關聯。近日,上海三聯書店出版了「瑪雅·安吉洛女性三部曲」,將她的三部重要作品合集——《我知道籠中鳥為何歌唱》《媽媽和我和媽媽》《致女兒書》。其中,《致女兒書》首次被翻譯成中文,以詩歌等各種文體分享瑪雅·安吉洛自己的人生。澎湃新聞經授權摘錄其中《喚回南方的根》一篇,本文標題為編者所擬。
  • 或許該從排除「隱性偏見」開始
    比如一些美國科學家認為美國不存在性別歧視,科研領域女性數量少緣於女性自身的職業選擇。 這是個很有意思的現象,的確有許多女學生對發展方向存在猶豫,最終主動放棄學術職業。性別偏見導致女性職場晉升困難日前,學術期刊Nature Human Behavior上發表了一項為期兩年的研究:在對近40個科學評估委員會如何決定研究人員升職進行研究後,作者發現,委員會中的大多數人都在不知不覺中將科學與男性聯繫在一起,這導致女性科學家很難獲得晉升
  • 研究稱世界五大博物館「性別歧視」:動物標本雄性太多
    據英國《每日郵報》報導,研究人員近日在《英國皇家學會學報B輯》上發表的一篇論文中指出,世界著名的五家自然博物館裡都存在著「性別歧視」現象——展品中的雄性動物標本遠多於雌性動物。研究人員在英國自然歷史博物館、美國史密森尼國家自然歷史博物館、美國菲爾德自然史博物館、美國自然歷史博物館和法國國家自然歷史博物館觀察了200多萬隻動物標本,認為博物館在選擇動物標本方面存在「性別偏見」。研究人員總結,在這些博物館裡,雄鳥標本的數量比雌鳥多60%到40%,哺乳動物標本中有52%是雄性。而在博物館的重點樣本動物中,只有27%的鳥類和39%的哺乳動物是雌性。
  • 清華大學沈向洋教授快手直播:要避免傳統社會語境裡的偏見被帶入AI
    如何避免人工智慧技術發展帶來的偏見和歧視?也是全人類需要共同關注的問題。2019年底,前微軟全球執行副總裁沈向洋宣布離職後,去向一直備受關注。3月3日,沈向洋入職清華大學擁抱學術的消息傳出。在訓練人工智慧系統時,一些社會偏見可能會導致對數據集在個人的性別、膚色和年齡假設。但在多元化的社會中,膚色、口音等各種不同的特徵和差異也讓我們意識到,滿足所有人的不同需求是非常複雜的。他舉了文本搜索中性別偏見的例子。研究團隊利用稱為「單詞嵌入」的自然語言處理工具,將單詞轉換為向量數字的算法,以來自新聞數據或者網頁數據的海量文本數據為依據,為每個單詞賦予一個對應的向量數字。