谷歌發布萬億參數語言模型,語言模型何時超越人類語言能力?

2021-02-14 新智元

來源:venturebeat

編輯:keyu

【新智元導讀】處理過程更加複雜的人類語言模型在近幾年得到了迅速發展,近日Google提出萬億參數語言模型Switch Transformer,進一步提高了語言模型可以達到的頂峰。這一切都表明,語言模型領域正處於「快速升溫」的階段,未來如何,我們拭目以待。

在短短幾年時間裡,深度學習算法經過了飛速的進化,已經具有了可以打敗世界最頂尖棋手的水平,並能以不低於人類識別的準確度來精確地識別人臉。

 

但事實證明,掌握獨特而複雜的人類語言,是人工智慧面臨的最艱巨挑戰之一。

 

這種現狀會被改變嗎?

 

如果計算機可以具有有效理解所有人類語言的能力,那麼這將會徹底改變世界各地的品牌、企業和組織之間打交道的方式。

 

直到2015年,能夠以與人類相當的準確率識別人臉的算法才出現:臉書DeepFace的準確率為97.4%,略低於人類的97.5%。

 

而作為參考,FBI的面部識別算法僅達到85%的準確率,這意味著仍然有超過七分之一的情況是錯誤的。

 

FBI的算法是由一組工程師手工設計的:每個功能,比如鼻子的大小和眼睛的相對位置,都是手動編程的。

 

而Facebook的算法則主要處理學習到的特徵,它使用了一種特殊的深度學習架構,稱為卷積神經網絡,這個網絡模仿了我們視覺皮層不同層次處理圖像的方式。

Facebook之所以能夠做到如此高的準確率,是因為它恰當的利用了可以實現學習功能的架構和數百萬用戶在分享的照片中標記好友的高質量數據,這兩個元素成為了訓練好的視覺模型可以達到人類識別水平的關鍵。

相比起視覺問題,語言似乎要複雜得多——據我們所知,人類是目前唯一使用複雜語言交流的物種。

 

不到十年前,如果要理解文本是什麼,人工智慧算法只會計算特定單詞出現的頻率。但這種方法顯然忽略了一個事實 : 單詞有同義詞,而且只有在特定的上下文中才有意義。

 

2013年,Tomas Mikolov和他在谷歌的團隊發現了如何創建一個能夠學習單詞含義的結構:

 

他們的word2vec算法可以將同義詞之間彼此映射,並且能夠對同義詞的大小、性別、速度進行建模,甚至還可以學習到諸如國家和首都等函數的關係。

然而,仍有很重要的一部分沒有得到處理——語境(上下文關係)。

 

這一領域的真正突破出現在2018年,當時,谷歌重磅引入了BERT模型:

 

Jacob Devlin和他的團隊利用了一種典型的用於機器翻譯的架構,並使其學習與句子上下文相關的單詞的含義。通過教會這個模型去填補維基百科文章中缺失的單詞,這個團隊能夠將語言結構嵌入到BERT模型中。

僅用有限數量的高質量標記數據,他們就能讓BERT適應多種任務,包括找到問題的正確答案以及真正理解一個句子是關於什麼的。

因此,他們成為了第一個真正把握語言理解的兩要素的人:正確的架構和大量高質量的數據。

 

2019年,臉書的研究人員將這一研究進行了進一步的推進:

 

他們訓練了一個從BERT衍生出的模型,令其同時學習100多種語言。訓練的結果是,該模型能夠學習一種語言的任務,例如英語,並使用它來完成其他任何語言的相同任務,如阿拉伯語、漢語和印地語。

這個語言無關模型在語言上可以與BERT有相同的表現,此外,在該模型中,語言轉換過程中的一些幹擾的影響是非常有限的。

 

在2020年初,Google的研究人員終於能夠在廣泛的語言理解任務中擊敗人類:

 

谷歌通過在更多數據上訓練更大的網絡,將BERT架構推向了極限——現在,這種T5模型在標註句子和找到問題的正確答案方面可以比人類表現得更好

 

而10月份發布的語言無關的mT5模型,在從一種語言切換到另一種語言的能力方面,幾乎可以與雙語者一樣出色。同時,它在處理語言種類方面有著不可思議的效果——它可以同時處理100多種語言。

本周公布的萬億參數模型Switch Transformer使語言模型變得更龐大,效果也變得更強大。

圖:Switch Transformer編碼塊

想像一下,聊天機器人可以理解你的任何想法:

 

他們會真正理解語境並記住過去的對話。而你會得到的答案不再是泛泛的回答,而是正切主題的。

 

搜尋引擎將能夠理解你的任何問題:

 

你甚至不需要使用正確的關鍵字,他們也會給出正確的答案。

 

你將得到一個了解你公司所有程序的「AI同事」:

 

如果你知道正確的「行話」,就不用再問其他同事問題了。當然,也不再會有同事和你說:「為什麼不把公司所有文件都看一遍再問我?」。

 

資料庫的新時代即將到來:

 

跟結構化數據的繁瑣工作說再見吧。任何備忘錄,電子郵件,報告等,將得到自動解釋,存儲和索引。你將不再需要IT部門運行查詢來創建報告,只需要和資料庫說一下就行了。

 

而這,還只是冰山一角——

 

任何目前仍需要人類去理解語言的過程,都正處於被破壞或被自動化的邊緣。

Talk isn’t cheap:龐大語言模型耗費巨大

在構建宏偉藍圖的同時,別忘了,還有個「陷阱」在這裡:

 

為什麼這些算法不是隨處可見?

 

一般情況下,訓練這些模型大概率要花費極其昂貴的價格。舉個例子,訓練T5算法的雲計算成本約為130萬美元。

雖然谷歌的研究人員非常友好地分享了這些模型,但是,針對當前的特定任務,如果不對它們進行微調,那麼這些模型在具體任務中很可能就無法使用。

 

因此,即使大公司開源了這些模型,對於其他人來說,直接拿來使用也是一件代價高昂的事情。

 

而且,一旦使用者針對特定的問題優化了這些模型,執行的過程中仍然需要大量的計算能力和超長的時間消耗

 

隨著時間的推移,隨著各大公司在微調上的投入,我們將看到新的的應用出現。

 

而且,如果大家相信摩爾定律,我們可以在大約五年內看到更複雜的應用。此外,可以超越T5算法的新的模型也將會出現。

 

2021年初,我們距離人工智慧最重大的突破以及由此帶來的無限可能,僅僅只有一步之遙。

 

參考連結:

https://venturebeat.com/2021/01/17/language-ai-is-really-heating-up/

相關焦點

  • 超過GPT3的谷歌萬億參數的AI語言模型
    正如研究人員在一篇詳細介紹他們工作的論文中指出的那樣,大規模訓練是通往強大模型的有效路徑。簡單的架構,在大量數據集和參數數的支持下,超越了遠為複雜的算法。但是,有效的大規模訓練是非常耗費計算的。這就是為什麼研究人員追求他們所謂的Switch Transformer的原因,這是一種 "稀疏激活 "的技術,它只使用模型的權重子集,或者說在模型中轉換輸入數據的參數。
  • 自然語言理解新突破:微軟谷歌AI模型在這張榜單上超過人類
    近日,科技公司谷歌和微軟相繼在一份權威自然語言理解榜單中表現超越人類,微軟宣稱這「標誌著邁向通用人工智慧的重要裡程碑。」自然語言理解(Natural Language Understanding,簡稱NLU)任務在人工智慧領域歷史悠久,被譽為「人工智慧皇冠上的明珠」。
  • 閱讀理解得分超越人類:谷歌推出最強預訓練語言理解模型BERT
    近日,谷歌提出了一個新的預訓練語言模型 BERT,該模型橫掃 11 項不同的自然語言處理任務,並在 SQuAD v1.1 的閱讀理解任務上超越人類兩個百分點。該模型究竟有哪些創新?有為什麼會有如此突出的效果呢?這一切需要從語言模型講起。
  • 500億參數,支持103種語言:谷歌推出「全球文字翻譯」模型
    效果是已知的,但卻非常鼓舞人心,因為比較是在雙語基線(即只在特定語言對上訓練得到的模型)和單個多語言模型之間進行的,後者擁有類似於單個雙語模型的表徵能力。這一發現表明,大規模多語言模型可以有效泛化,而且能夠捕捉大量語言之間的表徵相似性。單個大規模多語言模型與雙語基線模型之間的翻譯質量對比。
  • 深度解讀谷歌SyntaxNet:全新TensorFlow自然語言處理模型
    本文中,Hobbibal深度解讀了谷歌的自然語言處理模型。上周,谷歌開源了其基於人工智慧系統Tensorflow的自然語言解析模型分析庫SyntaxNet。在過去的兩年時間裡,谷歌研究人員利用這個分析庫發布了一系列神經網絡分析模型。自從SyntaxNet發布以來,筆者就一直關注它,當然也一直也期待這個軟體能夠開源。
  • 自然語言處理:語言模型與評價方法
    對於語言中常見的句子,一個好的語言模型應得出相對較高的概率;而對於不合語法的句子,計算出的概率則應接近於零。把句子看成單詞的序列,語言模型可以表示為一個計算p(w1,w2,w3,…,wm)的模型。語言模型僅僅對句子出現的概率進行建模,並不嘗試去「理解」句子的內容含義。比如說,語言模型能告訴我們什麼樣的句子是常用句子,但無法告訴我們兩句話的意思是否相似或者相反。語言模型有很多應用。
  • AI倫理先鋒退出谷歌的背後:論文涉及大型語言模型的風險和不平等
    根據VentureBeat獲得的未發表論文的草稿,圍繞她離職的研究論文質疑建立大型語言模型是否明智、誰從中受益、誰會受到部署這些模型的負面後果的影響,以及語言模型過大是否有其他類似影響。格布魯的研究對算法的公平性、偏見和面部識別都有影響。谷歌人工智慧主管傑夫迪恩周四在發給谷歌研究人員的一封電子郵件中說,他接受了格布魯的辭呈,此前他對這篇論文存在質疑。
  • 英偉達訓練出83億參數世界最大語言模型,53分鐘成功訓練Bert
    智東西(公眾號:zhidxcom)編 | 年年導語:Nvidia訓練出世界最大語言模型MegatronLM,模型使用了83億個參數,比Bert大24倍,比OpenAI的GPT-2大5倍。智東西8月14日消息,據外媒報導,Nvidia今天宣布,它已經訓練出了世界上最大的語言模型MegatronLM,該模型使用了83億個參數,比Bert大24倍,比OpenAI的GPT-2大5倍。
  • NVIDIA解決方案架構師深度解析大規模參數語言模型Megatron-BERT
    BERT模型深度解析2. 大規模參數的語言模型Megatron-BERT我們今天主要是溫故知新我先帶大家複習一下BERT模型的整體架構,內容不會特別偏數學,主要把BERT一些要點給大家說清楚,包括BERT的輸入/輸出以及具體它是怎麼工作的,然後介紹NVIDIA基於BERT開發出的一系列好的模型。
  • NVIDIA解決方案架構師深度解析大規模參數語言模型Megatron-BERT...
    BERT模型深度解析2. 大規模參數的語言模型Megatron-BERT我們今天主要是溫故知新我先帶大家複習一下BERT模型的整體架構,內容不會特別偏數學,主要把BERT一些要點給大家說清楚,包括BERT的輸入/輸出以及具體它是怎麼工作的,然後介紹NVIDIA基於BERT開發出的一系列好的模型。
  • 超越BERT!多粒度token預訓練語言模型
    事實上,細粒度和粗粒度的標記化在學習預訓練語言模型方面都有優缺點。在本文中,我們提出了一種新的基於細粒度和粗粒度標記的預訓練語言模型,稱為AMBERT(一種多粒度的BERT)。(NLU)方面顯示出強大的能力。
  • 微軟分享史上最大基於Transformer架構的語言生成模型
    基於Transformer的架構,意味著該模型可以生成單詞來完成開放式文本任務。除了完成未完成的句子外,它還可以生成對輸入文檔的問題和摘要的直接答案。去年8月,英偉達曾宣布已訓練世界上最大的基於Transformer的語言模型,當時該模型使用了83億個參數,比BERT大24倍,比OpenAI的GPT-2大5倍。
  • 谷歌BERT模型狂破11項紀錄,全面超越人類!
    今天請記住BERT模型這個名字。谷歌AI團隊新發布的BERT模型,在機器閱讀理解頂級水平測試SQuAD1.1中表現出驚人的成績:全部兩個衡量指標上全面超越人類!本文從論文解讀、BERT模型的成績以及業界的評價三方面做介紹。硬核閱讀:認識BERT的新語言表示模型首先來看下谷歌AI團隊做的這篇論文。
  • AI在這張「問卷」上首次超越人類,SuperGLUE被微軟谷歌兩家「攻破」
    SuperGLUE相比「前輩」GLUE大大提升了問題的難度,提出一年多以來,人類一直處於第一位。現如今,人類一下子被兩家AI超越。一個是來自微軟的DeBERTa,一個是來自谷歌的T5+Meena。超越人類的兩大NLU模型對NLP領域的人來說,微軟DeBERTa模型並不陌生,早在去年8月微軟就開源了該模型的代碼,並提供預訓練模型下載。
  • 用飛槳做自然語言處理:神經網絡語言模型應用實例 - 量子位
    近來,NLP 領域因為超大預訓練模型,很多研究需要耗費大量計算資源(比如百度新發布持續學習語義理解框架 ERNIE 2.0,該模型在共計 16 個中英文任務上超越了 BERT 和 XLNet,取得了 SOTA 效果),這樣的項目基本上就是在燒錢,小家小戶玩不起,於是就傻傻地等著大佬們發出論文,放出代碼,刷新榜單。
  • 谷歌搜索的靈魂!BERT模型的崛起與榮耀
    在搜尋引擎「猜」透人心背後,是谷歌的BERT模型逐漸開始理解人類語言。使用比例翻十倍、涵蓋語言增至70餘種……自2018年誕生至今,是哪些硬技術賦予BERT「超人類」的語言理解能力,它在NLP屆(自然語言處理,下稱NLP)又有怎樣的「江湖地位」?今天,就讓智東西和你一起,走過BERT這兩年的進階之路,看看NLP屆如今的半壁江山。本文福利:打開BERT模型的黑箱!
  • 谷歌搜索的靈魂:BERT模型的崛起與榮耀
    在搜尋引擎「猜」透人心背後,是谷歌的BERT模型逐漸開始理解人類語言。使用比例翻十倍、涵蓋語言增至70餘種……自2018年誕生至今,是哪些硬技術賦予BERT「超人類」的語言理解能力,它在NLP屆(自然語言處理,下稱NLP)又有怎樣的「江湖地位」?今天,就讓智東西和你一起,走過BERT這兩年的進階之路,看看NLP屆如今的半壁江山。本文福利:打開BERT模型的黑箱!
  • Uber AI簡單方法實現大規模語言模型的精細控制
    隨著 BERT、GPT-2 之類的大規模語言模型出現,NLP 研究者們通過實驗表明了只需要用簡單的目標函數在超大規模的無標註語料上訓練,得到的語言模型就可以在語言建模任務(給定一組開頭以後向後續寫)中得到前所未有的流暢度,文本的自然、合理程度可以接近人類水平。
  • LaBSE:一套支持109種語言的新語言不可知論內嵌模型
    據外媒報導,自transformer架構誕生以來,自然語言處理(NLP)和自然語言生成(NLG)領域就受益匪淺。Transformer模型如BERT及其衍生物已經被應用到一系列領域中,包括情緒分析和分類。
  • 谷歌發布含 7 種語言的全新數據集:有效提升 BERT 等多語言模型...
    雷鋒網 AI 開發者按:近日,谷歌發布了包含 7 種語言釋義對的全新數據集,即:PAWS 與 PAWS-X。BERT 通過該數據集的訓練,在釋義對問題上的精度實現了約為 3 倍的提升;其它先進的模型也能夠利用該數據集將精度提高到 85-90%。