AI倫理先鋒退出谷歌的背後:論文涉及大型語言模型的風險和不平等

2020-12-14 AI環球速遞

#人工智慧時代#

在周三就一些電子郵件和一篇研究論文發生爭執後,人工智慧倫理先鋒科學家蒂姆尼特格布魯不再任職於谷歌。根據VentureBeat獲得的未發表論文的草稿,圍繞她離職的研究論文質疑建立大型語言模型是否明智、誰從中受益、誰會受到部署這些模型的負面後果的影響,以及語言模型過大是否有其他類似影響。

格布魯的研究對算法的公平性、偏見和面部識別都有影響。谷歌人工智慧主管傑夫迪恩周四在發給谷歌研究人員的一封電子郵件中說,他接受了格布魯的辭呈,此前他對這篇論文存在質疑。但格布魯說,她從未提出辭職。

「……事實上,大多數語言技術首先是為滿足那些已經在社會上擁有最大特權的人之需求而建的,」這篇論文寫道。「因此,依賴於大到無法記錄的數據集的方法具有內在的風險。文檔記錄意味著潛在的問責制,類似於我們如何讓作者對其所產生的文本負責,而無文檔記錄的訓練數據使傷害永久化,而無法追索。如果訓練數據被認為大到無法記錄,人們就不能試圖理解它的特徵,以減少其中一些已記錄的問題,甚至是未知的問題。」

在這篇題為《隨機性鸚鵡的危險:語言模型可能太大嗎?》的論文中,作者們表示,部署大型語言模型的風險包括環境種族主義——由於人工智慧的碳足跡對邊緣化社區的影響比其他人更大,以及模型如何「從訓練數據中吸收霸權世界觀」。此外,人工智慧還可能保留辱罵性語言、仇恨言論、微攻擊、刻板印象和可能異化某些群體的其他形式的語言,並從「訓練數據中吸收霸權世界觀」。

還有一個後果是,與訓練大型語言模型相關的成本會對深度學習研究的進入造成障礙,並增加了人們信任語言模型所作預測而不質疑結果的可能性。

格布魯是該論文的第一作者,一起列為作者的還有谷歌研究員艾米麗·丹頓。其他作者包括谷歌人工智慧聯合負責人梅格·米切爾,谷歌研究人員本·哈欽森,馬克·迪亞茲和維諾庫馬·普拉巴卡蘭,以及華盛頓大學博士生安吉麗娜·麥克米蘭-梅傑。

周四,丹頓與230多名谷歌員工以及200多名來自學術界、工業界和民間社會的支持者一起籤署了一封信,信中提出了一系列要求,包括進行透明度評估,公開是誰決定讓丹頓和格布魯撤回發布給普通公眾和谷歌用戶研究結果。

信中寫道:「這已經成為公眾關注的一個問題,需要有公眾問責制,以確保谷歌研究的未來得到信任。」

谷歌人工智慧執行長傑夫迪恩周四在發給谷歌研究人員的一封電子郵件中對這篇論文提出批評,他說,經過審查發現,這篇論文「忽略了太多關於大型語言模型的相關研究」,也沒有考慮到最近關於減輕語言模型偏見的研究。

由於Transformer體系結構的使用,以及從Reddit或Wikipedia等網站收集的大量訓練數據,創建具有更多參數和訓練數據的語言模型成為了一個趨勢。

谷歌的BERT及其變體,如ALBERT和XLNet等,引領了這一趨勢。與其相當的模型還有Nvidia的Megatron和OpenAI的GPT-2及GPT-3等。其中谷歌的BERT有3.4億個參數,Megatron有83億個參數,微軟的T-NLG有170億個參數,而Open AI在5月份推出的GPT-3,也是今年早些時候發布的迄今為止最大的語言模型,有1750億個參數。隨著規模的增長,大型模型在自動問答或閱讀理解等任務中獲得更高的分數。

大量的研究已經發現了大型預訓練語言模型中的各種偏倚。例如,今年春天,NLP研究人員引入了StereoSet 數據集,基準和排行榜,並發現幾乎所有流行的預訓練語言模型都表現出基於族裔、種族和性別的偏見。

合著者建議基於其他指標評估語言模型,如能源效率和模型訓練的二氧化碳排放量估計,而不是用GLUE這樣的表現基準評估在一系列任務上的性能。

他們認為,大型預訓練語言模型的趨勢也有可能誤導人工智慧研究人員和公眾,使他們誤以為由大型語言模型(如OpenAI的GPT-3)生成的文本是有意義的。

論文寫道:"如果一個擁有數千億參數,在一個非常龐大的數據集上訓練的大型語言模型能夠很好地操縱語言形式,從而在本來需要語言理解的測試中作弊,那麼我們在如何構建機器語言理解方面是否學到了什麼有價值的東西,或者我們是否被引向了花園之路(註:指人們傾向於容易理解而非正確的方法)?總而言之,我們主張採取一種研究方法,以即將受到技術影響的人為中心,對技術可能影響人們的方式有一個全局的看法。"

該論文推薦了一些解決方案,如與受影響的社區合作、價值敏感設計、改進的數據文檔,以及採用諸如本德的NLP數據語句或在格布魯在微軟研究院時聯合提出的datasheets for datasets方法等框架。

與這份報告的結論類似,麥肯錫今年早些時候對商業領袖進行的一項調查發現,在部署AI模型的十大風險方面,應對工作進展甚微。

2020年人工智慧研究的一個顯著趨勢是,使用網絡大規模數據集訓練的大型模型受到了批評。

華盛頓大學語言學家艾米麗本德與人合著了一篇獲獎論文,敦促NLP研究人員質疑關於「大型語言模型能夠理解」的炒作。在接受VentureBeat的採訪時,她強調了更好的測試方法的必要性,並對語言模型研究中過於追求模型與基準任務相匹配的文化表示遺憾,她說這種追求可能會阻礙"好的科學"。

在計算機視覺領域,一項對「80 Million Tiny Images」(今年夏天發布的一個大型圖像數據集)的審核,揭示了其包含一些種族主義、性別歧視和色情的內容。結果,麻省理工學院和紐約大學的創建者沒有採取建議的步驟來改變數據集,而是停止使用它,並刪除現有的副本。

上個月,研究人員對會議上發表的論文進行了分析,發現精英大學和大型科技公司在深度學習時代享有競爭優勢,深度學習造成了計算鴻溝,權力集中在少數人手中,加劇了不平等。

相關焦點

  • Jeff Dean在谷歌成眾矢之的:開除「論文不合格」AI倫理研究員,被...
    3日,Gebru公開了她發給谷歌Brain女員工和其他同事的郵件內容。原來,她一直希望發表她的一篇研究論文,但是一直遭到上級反對。在郵件裡,她還揭露了谷歌對黑人這一弱勢群體的不公平對待,以及對AI倫理的不重視。正是因為這封郵件,被爆出「不符合谷歌管理者的期望」,因而被解僱。Jeff Dean很快就在谷歌內部發郵件回應了此事。
  • 谷歌AI 倫理專家論文被撤發牢騷,遭公司解僱
    當地時間周四,谷歌人工智慧倫理團隊負責人之一蒂姆尼特 · 格布魯 (Timnit Gebru)表示,自己被谷歌解僱,而原因是自己發送的一封電子郵件讓公司管理層認為其舉動 「與公司對谷歌經理的期望不一致」。這封電子郵件是對谷歌要求格布魯撤回自己與其他 6 人合著的人工智慧倫理學論文提出不同意見。
  • 谷歌解僱AI倫理團隊負責人引爭議 學界拒審查谷歌論文
    來源:澎湃新聞原標題:谷歌解僱AI倫理團隊負責人引爭議,學界拒審查谷歌論文人工智慧機器學習領域裡的科學家們表示將拒絕幫谷歌審核論文,直到谷歌改變對前AI倫理團隊聯合負責人Timnit Gebru的立場。
  • 超過GPT3的谷歌萬億參數的AI語言模型
    例如,它在使用相同數量的計算資源的情況下,實現了超過7倍的預訓練速度,研究人員表示,大型稀疏模型可用於創建較小的密集模型,在任務上進行微調,其質量收益為大型模型的30%。在一項測試中,Switch Transformer模型被訓練成在100多種不同語言之間進行翻譯,研究人員在101種語言中觀察到 "普遍的改進",91%的語言受益於與基線模型相比超過4倍的速度。
  • Jeff Dean親筆盤點谷歌AI 2019:日均2篇論文,縱橫16大方向
    :TensorFlow迎來全面升級開放11個數據集:從強化學習到自然語言處理,再到圖像分割頂會研究和Google研究的全球擴張:發表大量論文,投入大量資源資助教師、學生和各方面研究人員進行研究人工智慧倫理:推進人工智慧在公平、隱私保護、可解釋性方面研究進展展望2020年及以後:深度學習革命將繼續重塑我們對計算和計算機的看法。
  • 黑人女性AI專家被解僱引惡評,谷歌CEO出面道歉
    郵件中只是說,「播下了懷疑的種子,並導致我們社區的一些人質疑自己在谷歌的地位。」所以我認為這種做法意為「我為事情的結局感到抱歉,但我並不為我們對她所做的事感到抱歉。」格布魯在隨後接受採訪時表示,事件始於谷歌要求格布魯撤回研究論文,或至少刪除涉及的谷歌員工姓名。格布魯拒絕了這一請求。
  • 谷歌員工又發聯名信起義了:Jeff Dean道歉,AI倫理學家回歸
    過去幾年中,超大規模的語言機器學習模型出現,在回答問題或通過機器學習算法,消化從網絡上搜集的數十億字的任務上取得了重大進展。這些系統以語言的統計模式運作,不像人類那樣理解這個世界,他們會犯一些對人類來說顯而易見的錯誤。但是在回答問題或生成流暢的新文本方面,他們可以用數字處理的方式取得令人印象深刻的成果。
  • 谷歌解僱資深研究員Timnit Gebru 或僅因為一篇論文
    谷歌最近解僱了一位資深AI研發人員,僅僅因為該員工批評了公司。Timnit Gebru是該領域的先驅,並對大型語言模型中的風險和不平等進行了研究。的論文,這篇論文質疑語言模型是否會太大,誰會從中受益,以及它們是否會增加偏見和不平等。最近的一些案例大體上證實了她關於大型模型和數據集的說法。 例如,麻省理工學院今年早些時候被迫刪除了一個名為8000萬小圖像的大型數據集。該數據集在訓練AI方面很流行,但被發現包含帶有種族主義、厭惡女性和其他不可接受的標籤的圖像。
  • 被指開除高級研究員,谷歌大神Jeff Dean回應:是她說不答應條件就離職
    IDE 是 Diversity(多樣性)、Equity(公平)和 Inclusion(包容)的首字母縮寫,致力於解決谷歌內部的性別、種族等不平等問題。在 Gebru 看來,這個項目已經形同虛設。Gebru 表示,這封郵件發出之後不久,她就遭到了谷歌的解僱。因此她認為,是自己對谷歌的批評導致了此次的「開除」事件。但谷歌似乎並不認可這種說法。
  • 500億參數,支持103種語言:谷歌推出「全球文字翻譯」模型
    來自谷歌的研究者提出了一種能夠翻譯 103 種語言的大規模多語言神經機器翻譯模型,在數據豐富和匱乏的語種翻譯中都實現了顯著的性能提升。他們在 250 億個的句子對上進行訓練,參數量超過 500 億。在過去的幾年裡,由於神經機器翻譯(NMT)的發展,機器翻譯(MT)系統的質量得到了顯著提升,打破了世界各地的語言障礙。
  • 上千名學者和員工抗議!谷歌炒掉知名AI學者
    Gebru離職後,谷歌的人工智慧研究主管傑夫·迪恩(Jeff Dean)於周四上午向Gebru所在部門發送了一份通知,稱經過內部審核,她的研究論文不符合公司的出版標準。Gebru稱,公司還告訴她,她對同事的批評意見「與谷歌經理的期望不一致」。Gebru聲稱,自己是在可疑的情況下被這家強大的科技公司趕出公司的。
  • 谷歌大腦AI實現文本摘要生成
    此外,在僅有100篇示例文章的低資源環境下,它生成的摘要質量可與在2萬至20萬篇完整數據集上進行培訓的模型相媲美。值得注意的是,當AI能夠理解一段話的意思,其應用領域將不僅限於文本摘要,還可能給多個行業帶來變革。早在2016年,谷歌人工智慧部門負責人,被稱為「谷歌大腦背後的大腦」的Jeff Dean就曾表達了用AI系統總結文件內容的願望。
  • 谷歌AI倫理團隊聯合負責人Timnit Gebru被解僱 1400名員工炸鍋
    3日,Gebru公開了她發給谷歌Brain女員工和其他同事的郵件內容。原來,她一直希望發表她的一篇研究論文,但是一直遭到上級反對。在郵件裡,她還揭露了谷歌對黑人這一弱勢群體的不公平對待,以及對AI倫理的不重視。正是因為這封郵件,被爆出「不符合谷歌管理者的期望」,因而被解僱。Jeff Dean很快就在谷歌內部發郵件回應了此事。
  • 谷歌發布萬億參數語言模型,語言模型何時超越人類語言能力?
    這一切都表明,語言模型領域正處於「快速升溫」的階段,未來如何,我們拭目以待。在短短幾年時間裡,深度學習算法經過了飛速的進化,已經具有了可以打敗世界最頂尖棋手的水平,並能以不低於人類識別的準確度來精確地識別人臉。 但事實證明,掌握獨特而複雜的人類語言,是人工智慧面臨的最艱巨挑戰之一。 這種現狀會被改變嗎?
  • 谷歌道歉!徹查AI倫理專家被解僱一事
    這場紛爭最先開始於一篇名為《隨機鸚鵡之險:語言模型會太大嗎?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》的論文,這篇論文從環保和成本角度、種族和性別方面探討了大型語言模型帶來的一些風險。
  • 支持108種語言的谷歌翻譯如何用AI讓翻譯質量越來越好?
    (機器翻譯傳統上依賴於源語言和目標語言中成對句子的語料統計)在這種方案中,訓練數據會自動與合成並行數據對齊,從而目標文本是自然語言,但會生成源通過神經翻譯模型。結果是谷歌翻譯利用了更豐富的單語文本數據來訓練模型,Google表示這對於提高流利性特別有用。
  • 上千名學者和員工抗議!谷歌炒掉知名AI學者 引發科技界「寒蟬效應...
    ,稱經過內部審核,她的研究論文不符合公司的出版標準。同時論文內容談到了谷歌BERT在AI倫理上的負面影響。 據《紐約時報》(New York Time)報導,Gebru和她的同事們的研究「準確地指出了一種新型語言技術的缺陷,包括谷歌建立的支撐公司搜尋引擎的系統。」據報導,會議還討論了用於自然語言處理程序的大規模計算系統對環境的影響。
  • 谷歌開源 BERT 模型原始碼
    BERT 模型以來,BERT 模型以其雙向、深層等特點,成功在 11 項 NLP 任務中取得 state of the art 的結果,贏得自然語言處理學界的一片讚譽之聲。驚鴻一瞥後,人們都在期待谷歌何時會放出 BERT 模型原始碼。直至今日,谷歌終於一鼓作氣發布了包括 BERT 模型 TensorFlow 代碼、BERT-Base 與 BERT-Large 模型的預訓練檢查點、微調實驗結果的自動化復現 TensorFlow 代碼、預訓練數據生成和數據訓練的代碼在內的「BERT 模型大禮包」。
  • 谷歌道歉,徹查AI倫理專家被解僱一事
    去年,Gebru加入谷歌,擔任AI倫理團隊聯合負責人一職,在職期間,Gebru一直對谷歌存在的種族、性別多樣性問題直言不諱。Gebru常年活躍於科技領域的黑人和女性平權運動,是黑人平權倡議團體Black in AI的創始人之一。
  • 7 Papers | 谷歌量子霸權論文;13項NLP任務奪冠的小模型ALBERT
    推薦:雖然大型預訓練語言模型在很多 NLP 任務上取得了進展,但壓縮參數一直是研究者的目標。谷歌團隊這回再次發力,將 BERT 進行了明顯的參數縮減,但依然超越了現有的 SOTA——XLNet 模型。這一論文值得讀者閱讀。論文 4:Language Models as Knowledge Bases?