為避免性別偏見 谷歌AI新工具實行性別代詞禁令

2020-12-11 環球網

Alphabet旗下谷歌在5月份為Gmail引入了一個新功能「Smart Compose」,即當用戶打字的時候,自動為用戶補充完整的句子,比如,用戶打出「我愛(I love)」,Gmail就會提示「你(you)」或是「它(it)」。

谷歌將不會提示性別代詞,「他」或「她」,這樣風險太大,因為其預測輸入「SmartCompose」技術不能準確預測別人的性別身份,可能會冒犯到用戶。

Gmail產品經理保羅蘭伯特說,公司研究人員在今年1月份發現了這個問題,當他打出「我下周要和一位投資者見面,」谷歌的Smart Compose就自動提出一個可能的後續問題:「你想見他 嗎?」,而不是「她 」。

雖然消費者已經習慣了智慧型手機上自動更正失言時的尷尬,但谷歌拒絕放棄這個改正的機會,特別當性別問題正在重塑政治和社會,以及評論家正在仔細觀察人工智慧潛在的偏見,這在以前是不曾有過的。

避免「Smart Compose」陷入性別歧視可能有利於谷歌的業務,這起碼證明了谷歌比競爭對手更了解人工智慧的細微差別,這也是谷歌構建親和力的品牌和吸引顧客使用其AI驅動的雲計算工具,以及廣告服務和硬體所作努力的一部分。

蘭伯特說,Gmail擁有15億用戶,當Smart Compose功能推出時,Gmail上來自全球11%的消息都是它幫助編輯的。

Smart Compose是AI開發者口中「自然語言生成(NLG)」的一個使用範例。電腦可通過研究模式,文學、電子郵件、網頁上詞語之間的關係來學習。

這個系統展示了數十億人類句子,並且變得善於完成常見的短語,但局限是過於籠統。男性長期以來主導一些領域,如金融和科學,所以這項科技將從數據得出:一個投資者或者工程師是「他」或「他」。這項問題幾乎存在於每個主要的科技公司。

蘭伯特說,Smart Compose團隊約有15名工程師和設計師,他們嘗試幾種解決方法,但是沒有一個被證明是沒有偏見的。所以,他們決定最好的解決方案就是最嚴格的一個:限制範圍。蘭伯特說,當Smart Compose想要預測輸入內容時,性別代詞禁令僅會影響不到1%的情況。

谷歌一位負責Gmail和其他服務的工程師稱:「我們唯一可靠的技術就是保守。」

谷歌新政策

谷歌這次決定在性別問題上採取安全的做法,是因為該公司一些預測技術引起了引人注目的尷尬事件。

2015年,谷歌因為其圖像識別功能將一對黑人夫婦識別為大猩猩而公開道歉。2016年,谷歌更改了搜尋引擎自動填補功能,因為此前當用戶搜索關於猶太的信息時,谷歌自動提示反猶太問題查詢。

谷歌已經在其預測技術上禁止咒罵和種族歧視,還避免提到其業務競爭對手或者悲劇事件。

谷歌的新政策——性別代詞禁令也影響到的谷歌智能應答的反應。該服務允許用戶立即回復簡訊和電子郵件,使用諸如「聽起來不錯」等短語。

谷歌由AI道德團隊開發的測試來發現新的偏見問題。在美國以外工作的員工當地尋找文化問題。SmartCompose將很快能夠使用他四種工作語言:西班牙語、葡萄牙語、義大利語和法語。

谷歌工程師主管Raghavan稱:「你需要很多人力監督,因為每種語言中,表述不妥當的網包含著不同的東西。」

相關焦點

  • 谷歌阻止基於性別的代詞來處理人工智慧工具,以防止指控偏見
    谷歌的技術不會提出基於性別的代詞,因為風險太高,以至於其「智能撰寫」技術可能會錯誤地預測某人的性別或性別認同並冒犯用戶,產品負責人在採訪中向路透社透露。但是,在性別問題正在重塑政治和社會的時候,谷歌拒絕抓住機會,批評者正在以前所未有的方式仔細審查人工智慧的潛在偏見。「並非所有'搞砸'都是平等的,」蘭伯特說。性別是出錯的「大事,大事」。
  • 減少谷歌翻譯中性別偏見的可擴展方法
    用於語言翻譯的機器學習(ML)模型可能會因為模型訓練數據中潛藏的社會偏見而生成同樣帶有傾向的結果。性別偏見就是一個典型的例子,主要體現在性別特定(語言中有他 / 她這樣區分性別的語素)語言和非性別特定語言之間的翻譯結果上。例如,谷歌翻譯曾將土耳其語中的「他 / 她是醫生」都翻譯成了"他是醫生",而將土耳其語中的「他 / 她是護士」都翻譯成了"她是護士"。
  • 谷歌翻譯困境破局:AI不是人,為什麼也會有性別偏見?
    這些年來,Google Translate(谷歌翻譯服務)一直被人詬病存在性別偏見現象,例如Google Translate會默認將某些
  • 谷歌翻譯困境破局 AI不是人,為什麼也會有性別偏見
    這些年來,Google Translate(谷歌翻譯服務)一直被人詬病存在性別偏見現象,例如Google Translate會默認將某些「中性」職業和特定的性別聯繫起來,「醫生」一定是男性,而「護士」則往往是女性。從2018年開始,Google就嘗試解決土耳其語和英語互相翻譯時的性別偏見問題,為與性別有關的詞條提供兩種版本的翻譯(和漢語不同,土耳其語是「中性」語言。
  • 可以從Gmail智能合成中提取性別代詞以減少偏見
    Gmail的智能撰寫功能可以在你快速發送消息時為你節省寶貴的時間,但不要指望它會把別人稱為「他」或「她」-谷歌在這方面做得很穩妥。產品領導者向路透社透露,谷歌在意識到人工智慧引導的功能可能存在偏見後,從智能撰寫的短語建議中刪除了性別代詞。
  • 谷歌翻譯引入減少性別偏見的更新 英法等六語種首發
    為了減少性別偏見,谷歌為自家的翻譯工具引入了一項更新。周四的時候,這家搜索巨頭表示,谷歌翻譯將為一個單詞提供女性化和男性化的翻譯(Gender-Specific)。在此之前,這項服務的默認視角,都是站在男性的角度。
  • 語言學例句中竟藏著性別偏見和性別刻板印象!!??
    是不是John總擁有一輛car,而Mary要去為孩子買rice?當作者需要假設情境時寫「想像有一個人」,接下來用人稱代詞進行回指時,看到的更多是「他、he",而不是」她、she"?一些語言學家已經注意到了:語言學領域文獻所用例句裡的性別偏見和性別刻板印象的問題。
  • ACL 2020|詞嵌入性別偏見難以避免?「雙硬去偏」新方法來了!
    ,具有很強的性別偏見,而且這種性別偏見會被下遊模型進一步放大。3、早期的「硬去偏」方法之前的方法是通過後處理方式減少詞嵌入中與性別相關的部分從而減少性別偏見。具體來說,它需要一系列與性別相關的詞對,並計算這些詞對的差分向量的第一主成分作為嵌入空間中的性別方向。然後將有偏詞嵌入映射到與推測的性別方向正交的子空間中,以消除性別偏見。
  • 谷歌翻譯減少性別歧視 「他」也可以是護士
    12月7號消息,谷歌今天宣布從本周開始,谷歌翻譯開始為一些性別中立的詞語提供女性化和男性化的翻譯,減少性別偏見。例如,土耳其語中的「o bir doktor」,現在翻譯為「她是醫生」和「他是醫生」。谷歌翻譯稱一直致力於促進公平,並減少機器學習中的偏見。此前翻譯時,它無意中會表現出一些已經固化的性別偏見。例如:對谷歌翻譯中的「o bir muhendis」翻譯為「他是工程師」,而「o bir hemsire」 被翻譯為「她是一名護士。」現在,谷歌翻譯為一些性別中性詞語分別提供女性和男性的翻譯來解決性別偏見問題。
  • 性別會造成對性別偏見研究的偏見
    有意思的是,美國蒙大拿州立大學的心理學家們對科學界進行了「有關性別偏見的研究」的評價研究,發現科學、技術、工程和數學領域不僅存在對於女性的偏見,而且這一領域不同性別的人對於性別偏見研究成果的評價也存在偏見。由此提醒我們,僅僅揭露性別偏見並不足以消除偏見的存在。
  • 薩姆·史密斯因性別認知困擾 改掉自身性別代詞
    : 640px; ; ;Hiragino Sans GB", "Microsoft Yahei", 微軟雅黑, SimSun, 宋體, Arial; ; letter-spacing: 1px; text-align: center;" />史密斯宣布改成非二元性別的代詞網易娛樂9月14日報導 北京時間9月14日消息,據外國媒體報導,一直為自身性別所矛盾的英國歌手薩姆
  • 聯合國發布:在中文和法語中,如何儘量避免性別歧視?
    「性別平等」這幾年是個熱門又敏感話題,有人認為平權運動力度不夠,也有人認為極端的「直男癌」或「田園女拳」太多……在爭議中,一些組織仍在為提高性別平等意識而努力。聯合國認為使用性別包容性語言是促進性別平等和打擊性別偏見的一個有力手段,因此它發布了6個語種的《性別包容性語言指南》。
  • AI沒有偏見?它們從人類的語言中學會了性別和種族歧視
    李杉 編譯自 IEEE Spectrum量子位 出品 | 公眾號 QbitAI在性別和種族問題上,人工智慧能夠消除人類的偏見嗎?《科學》上發表的一項最新研究給我們潑了一盆冷水。普林斯頓大學信息技術政策中心計算機科學家Arvind Narayanan和他的同事們發現,機器學習算法會輕易模仿其訓練數據集中隱含的偏見。
  • 算法為何也有性別歧視
    回到剛剛的謎語,下面是研究員用系統測試的三句話,每句話對外科醫生的指代都不同:一句用男性人稱代詞,一句用中性人稱代詞,還有一句用女性人稱代詞:外科醫生不能為他的病人做手術:這是他的兒子!外科醫生不能為他們的病人做手術:這是他們的兒子!外科醫生不能為她的病人做手術:這是她的兒子!
  • 社會心理學閱讀筆記:談談性別偏見
    社會心理學閱讀筆記:談談性別偏見本篇談談性別刻板印象,即人們有關女性和男性事實上如何行為舉止的信念。性別刻板印象:從有關刻板印象的研究中,有兩個結論是毫無疑義的:存在很強的性別刻板印象,並且正如常常發生的那樣,刻板化群體也接受這種刻板印象。
  • 算法中的性別歧視,應被看見被糾正
    本版插圖:小麗「如何避免算法中的偏見和歧視」「AI時代,女性如何向前一步」等話題,在剛剛召開的「世界網際網路大會·網際網路發展論壇」上,引起了普遍關注。算法中的偏見之所以能引起注意,源於幾次刷爆網際網路的新聞:2015年,谷歌圖片軟體的自動標記功能,誤將兩名黑人標記為「大猩猩」;2016年,微軟的首個聊天機器人Tay上線,由於事先沒有為它植入規則,希望它在與人互動中產生自己的願望與想法,結果Tay一上線聊天就被網民們「教壞」,成了一個集反猶太人、性別歧視、種族歧視於一身的「不良少女」,不到一天就被緊急下線;2018
  • 保護好男孩手裡的洋娃娃,拒絕「性別偏見」,才是最好的性別教育
    一直以來,沒有人覺得這是一種偏見,反而覺得自己的行為很正常。這個男孩的故事,讓我們知道了,家長不應該用性別去幹預孩子的興趣,假如家長能拋棄自己的偏見,那麼孩子的天賦就可以得到發展。01.「性別偏見」有哪些壞處壞處一:讓孩子的天性被壓制。有的女生天生就對機械方面的東西感興趣,有的男生天生就喜歡漂亮的娃娃,這本身並沒有什麼對錯。
  • 清華大學沈向洋教授快手直播:要避免傳統社會語境裡的偏見被帶入AI
    當下,以人工智慧為代表的新興技術正在讓很多不可思議的事情成為現實。但在推動技術進步的同時,如何解決技術帶來的社會影響?如何避免人工智慧技術發展帶來的偏見和歧視?也是全人類需要共同關注的問題。2019年底,前微軟全球執行副總裁沈向洋宣布離職後,去向一直備受關注。
  • WikiGenderBias:一個可評價並減少模型性別偏見的數據集
    性別偏見是指在和性別無本質關聯的任務上,算法明顯利用性別信息對其他屬性相似、但性別屬性不同的樣本給出不同預測。一些研究表明,在自然語言處理的多項任務上,主流算法都存在一些性別偏見。一些方法可以簡單地檢測模型是否存在性別偏見,例如計算模型在男性測試樣本和女性測試樣本上的性能指標之差。發現性別偏見後,一些研究提出緩解偏見的方法,例如數據增強、無偏見的詞向量、平衡數據分布等等。
  • 山姆史密斯更改性別代詞 拒絕被叫「He」
    據臺灣媒體報導,英國歌手山姆史密斯(Sam Smith)是一名出櫃男同志,更準確一點的說,他是一名「酷兒」(Queer),意即認同自己的性別既非男性也非女性。山姆史密斯近來在推特上表示,希望外界要以英文代詞稱呼自己時,請使用「They/Them」,並非傳統的「He/Him」,因為他並非屬於男或女的二元性別。山姆史密斯近日在推特上表示:「我一生都在與自己的性別認同作戰,如今我決定從內到外擁抱真正的自己。」他透露,做出這個決定身邊的人都很支持,但自己還是非常緊張,「因為我太在意人們的想法了,但是,去X的!