Alphabet旗下谷歌在5月份為Gmail引入了一個新功能「Smart Compose」,即當用戶打字的時候,自動為用戶補充完整的句子,比如,用戶打出「我愛(I love)」,Gmail就會提示「你(you)」或是「它(it)」。
谷歌將不會提示性別代詞,「他」或「她」,這樣風險太大,因為其預測輸入「SmartCompose」技術不能準確預測別人的性別身份,可能會冒犯到用戶。
Gmail產品經理保羅蘭伯特說,公司研究人員在今年1月份發現了這個問題,當他打出「我下周要和一位投資者見面,」谷歌的Smart Compose就自動提出一個可能的後續問題:「你想見他 嗎?」,而不是「她 」。
雖然消費者已經習慣了智慧型手機上自動更正失言時的尷尬,但谷歌拒絕放棄這個改正的機會,特別當性別問題正在重塑政治和社會,以及評論家正在仔細觀察人工智慧潛在的偏見,這在以前是不曾有過的。
避免「Smart Compose」陷入性別歧視可能有利於谷歌的業務,這起碼證明了谷歌比競爭對手更了解人工智慧的細微差別,這也是谷歌構建親和力的品牌和吸引顧客使用其AI驅動的雲計算工具,以及廣告服務和硬體所作努力的一部分。
蘭伯特說,Gmail擁有15億用戶,當Smart Compose功能推出時,Gmail上來自全球11%的消息都是它幫助編輯的。
Smart Compose是AI開發者口中「自然語言生成(NLG)」的一個使用範例。電腦可通過研究模式,文學、電子郵件、網頁上詞語之間的關係來學習。
這個系統展示了數十億人類句子,並且變得善於完成常見的短語,但局限是過於籠統。男性長期以來主導一些領域,如金融和科學,所以這項科技將從數據得出:一個投資者或者工程師是「他」或「他」。這項問題幾乎存在於每個主要的科技公司。
蘭伯特說,Smart Compose團隊約有15名工程師和設計師,他們嘗試幾種解決方法,但是沒有一個被證明是沒有偏見的。所以,他們決定最好的解決方案就是最嚴格的一個:限制範圍。蘭伯特說,當Smart Compose想要預測輸入內容時,性別代詞禁令僅會影響不到1%的情況。
谷歌一位負責Gmail和其他服務的工程師稱:「我們唯一可靠的技術就是保守。」
谷歌新政策
谷歌這次決定在性別問題上採取安全的做法,是因為該公司一些預測技術引起了引人注目的尷尬事件。
2015年,谷歌因為其圖像識別功能將一對黑人夫婦識別為大猩猩而公開道歉。2016年,谷歌更改了搜尋引擎自動填補功能,因為此前當用戶搜索關於猶太的信息時,谷歌自動提示反猶太問題查詢。
谷歌已經在其預測技術上禁止咒罵和種族歧視,還避免提到其業務競爭對手或者悲劇事件。
谷歌的新政策——性別代詞禁令也影響到的谷歌智能應答的反應。該服務允許用戶立即回復簡訊和電子郵件,使用諸如「聽起來不錯」等短語。
谷歌由AI道德團隊開發的測試來發現新的偏見問題。在美國以外工作的員工當地尋找文化問題。SmartCompose將很快能夠使用他四種工作語言:西班牙語、葡萄牙語、義大利語和法語。
谷歌工程師主管Raghavan稱:「你需要很多人力監督,因為每種語言中,表述不妥當的網包含著不同的東西。」