作者 | 楊麗
日前,來自路透社的一則報導稱, Google AI部門要求其研究人員在人工智慧的論文中給出「樂觀態度」的基調。
這主要來自對包括面孔、性感分析,以及性別、種族、意識形態等在內的敏感話題類的研究論文增加的一道審查,在此之前研究人員還需要先諮詢法律、政策和公司的公關部門。
該規定其中有一頁這樣寫道:「 技術的進步和外部日益複雜的環境情況,導致看似有冒犯性的研究項目引發道德、聲譽、法律法規等問題。 」
路透社稱,現無法確定詳細頒發日期,根據已知的三名現任員工給出的信息來看該規定始於今年6月。
此外,員工還被多次要求「不要以消極的態度闡述技術」。
比如,負責推薦算法論文的研究人員被告知「要格外小心,表現出積極的語氣」,該推薦算法主要用於對YouTube等平臺上的內容進行個性化推薦。最終,該作者採取的措施為「將論文中有關谷歌產品的所有引用全部刪除」。
路透社還寫道,另一篇有關語言理解算法的論文「淡化了對Google Translate這一產品出錯的引用」,進行修改是為了響應審核人員的要求。
一直以來,谷歌的標準審核過程旨在確保研究人員不會無意間洩露商業秘密,但「敏感類主題」的審核卻不僅僅限於此。目前來看,谷歌還希望評估自己的產品服務抹去偏見的基調,這些敏感類主題包括「國家、石油工業、位置數據、宗教和以色列」。
實際上,自從12月初AI倫理專家Timnit Gebru被解僱以來,這家搜索巨頭的動作一直備受關注。Gebru此前曾說,她因發送給Google AI研究人員內部小組Google Brain Women and Allies listserv的電子郵件而被終止。
這封郵件中,她談到了谷歌經理敦促她撤回有關大規模語言處理模型危險性的論文。Google AI的掌門人Jeff Dean說,她在截止日期之前提交了這篇論文。不過,Gebru的團隊拒絕了這一主張,稱該規定存在「不公正、歧視性」。
據華盛頓郵報此前報導,Gebru於今年9月份與谷歌的公關和政策小組聯繫。她知道公司可能會對研究的某些方面產生疑問,因為谷歌在搜尋引擎中使用了大型語言處理模型。對該論文進行修改的截止日期是2021年1月,直到研究人員有足夠的時間來解決這些問題。
然而,感恩節前一周,Google Research副總裁Megan Kacholia要求Gebru收回論文。第二個月,Gebru被解僱了。
https://www.theverge.com/2020/12/23/22197760/google-sensitive-topics-review-research-papers-timnit-gebru?scrolla=5eb6d68b7fedc32c19ef33b4
由於微信公眾號試行亂序推送,您可能不再能準時收到AI科技評論的推送。為了第一時間收到AI科技評論的報導, 請將「AI科技評論」設為星標帳號,以及常點文末右下角的「在看」。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺「網易號」用戶上傳並發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.