...規模集成Transformer模型,阿里達摩院如何打造WMT 2018機器翻譯...

2020-11-23 搜狐網

原標題:專訪 | 大規模集成Transformer模型,阿里達摩院如何打造WMT 2018機器翻譯獲勝系統

機器之心原創

作者:思源

在剛剛結束的 WMT2018 國際機器翻譯大賽上,阿里巴巴達摩院機器智能實驗室機器翻譯團隊打敗多個國外巨頭與研究機構,並在英文-中文翻譯、英文-俄羅斯語互譯、英文-土耳其語互譯這 5 個項目的自動評測指標 BLEU 分值都位居第一。阿里達摩院機器智能實驗室的陳博興博士和司羅教授向機器之心介紹了阿里在機器翻譯領域的布局應用,以及如何通過對標準的 Transformer 模型進行改進和優化,而獲得更為優秀的神經機器翻譯系統。

WMT 的全稱是 Workshop on Machine Translation,是國際公認的頂級機器翻譯賽事之一,也是各大科技公司與學術機構展示自身機器翻譯實力的平臺。由陳博興博士帶領的達摩院機器翻譯團隊,在此次比賽中使用業界最新的 Transformer 結構,進行了網絡結構的改進和對詞語位置信息的充分利用,全面改進了機器翻譯的性能。更重要的是,翻譯團隊充分利用了阿里的計算資源優勢,每一種翻譯任務都集成了幾十上百個基礎模型,這需要非常龐大的計算力而實現最優的性能。

在本文中,我們首先會介紹阿里達摩院為什麼要做機器翻譯及它在 WMT 2018 所採用的基礎模型和修正方法,同時還會介紹達摩院所採用的模型集成方法。隨後我們還將介紹阿里在模型訓練中所採用的模型調優方法,它們可以令譯文具有更好的可讀性。最後,我們會介紹這一頂尖神經機器翻譯系統的部署與應用。

為什麼阿里要做機器翻譯?

「機器翻譯是阿里國際化的生命線。」印度、拉美、東南亞等新興市場,都被認為將產生「下一個五萬億美元」。作為阿里達摩院機器智能實驗室 NLP 首席科學家,司羅不僅肩負著帶領團隊探索機器翻譯前沿技術的任務,更要支持阿里全球業務的快速發展,幫助阿里國際化跨過「語言」這道門檻。

「這也是為什麼阿里在此次 WMT 比賽上,除了英中翻譯外,還參加中國企業很少涉足的英文-俄羅斯語互譯、英文-土耳其語互譯,並在這 4 個項目上戰勝諸多國外巨頭與研究機構,奪得冠軍。這背後的推動力量,正是機器翻譯在阿里國際化中體現的巨大業務價值。同時,背靠世界最大、質量最好的跨境電商語料庫,也讓阿里機器翻譯技術能在短時間內,取得世界領先。這就是我們期待看到的,研發與業務的協同發展。」

阿里在神經機器翻譯模型上的探索

近年來,基於編碼器解碼器框架的神經機器翻譯系統取得了很大的進步與應用。最開始我們基於循環神經網絡構建神經機器翻譯的標準模型,後來我們考慮使用卷積神經網絡提升並行訓練效果,而去年穀歌等研究團隊更是提出不使用 CNN 和 RNN 抽取特徵的 Transformer。儘管 Transformer 在解碼速度和位置編碼等方面有一些缺點,但它仍然是當前效果最好的神經機器翻譯基本架構。

阿里機器翻譯團隊在 WMT 2018 競賽上主要採用的還是 Transformer 模型,但是會根據最近的一些最新研究對標準 Transformer 模型進行一些修正。這些修正首先體現在將 Transformer 中的 Multi-Head Attention 替換為多個自注意力分支,而模型會在訓練階段中將學習結合這些分支注意力模塊。其次,阿里採用了一種編碼相對位置的表徵以擴展自注意力機制,並令模型能更好地理解序列元素間的相對距離。

不過據陳博興博士介紹,在阿里集成的基礎模型中,也會有一些基於 RNN 的 Seq2Seq 模型,它會使用標準的編碼器-注意力機制-解碼器的架構。這些 Seq2Seq 模型在每項翻譯任務中大約佔所有集成模型中的 10%,集成模型的主體還是 Transformer 模型。

在 NMT 中,基於 Seq2Seq 的模型一般在編碼器中會使用多層 LTSM 對輸入的源語詞嵌入向量進行建模,並編碼為一個上下文向量。但是這樣編碼的定長上下文向量很難捕捉足夠的語義信息,因此更好的方法即讀取整個句子或段落以獲取上下文和主旨信息,然後每一個時間步輸出一個翻譯的目標語詞,且每一個時間步都關注輸入語句的不同部分以獲取翻譯下一個詞的語義細節。這種關注輸入語句不同部分的方法即注意力機制。Seq2Seq 模型的最後一部分即將編碼器與注意力機制提供的上下文信息輸入到由 LSTM 構成的解碼器中,並輸出預測的目標語。

雖然基於 RNN 的 Seq2Seq 模型非常簡潔明了,但目前最優秀的神經機器翻譯模型並沒有採用這種架構。例如去年 Facebook 在 Convolutional Sequence to Sequence Learning 論文中提出的用 CNN 做神經機器翻譯,它在準確度尤其是訓練速度上都要超過最初基於 RNN 的模型。而後來谷歌在論文 Attention is all you need 中所提出的 Transformer 更進一步利用自注意力機制抽取特徵而實現當前最優的翻譯效果。

Transformer 基本架構

阿里在翻譯系統中主要採用的模型架構還是谷歌原論文所提出的 Transformer。陳博士表示,目前無論是從性能、結構還是業界應用上,Transformer 都有很多優勢。例如,自注意力這種在序列內部執行 Attention 的方法可以視為搜索序列內部的隱藏關係,這種內部關係對於翻譯以及序列任務的性能有顯著性提升。

如 Seq2Seq 一樣,原版 Transformer 也採用了編碼器-解碼器框架,但它們會使用多個 Multi-Head Attention、前饋網絡、層級歸一化和殘差連接等。下圖從左到右展示了原論文所提出的 Transformer 架構、Multi-Head Attention 和標量點乘注意力。本文只簡要介紹這三部分的基本概念與結構,更詳細的 Transformer 解釋與實現請查看機器之心的 GitHub 項目:基於注意力機制,機器之心帶你理解與訓練神經機器翻譯系統。

正如與陳博士所討論的,上圖右邊的標量點乘注意力其實就是標準 Seq2Seq 模型中的注意力機制。其中 Query 向量與 Value 向量在 NMT 中相當於目標語輸入序列與源語輸入序列,Query 與 Key 向量的點乘相當於餘弦相似性,經過 SoftMax 函數後可得出一組歸一化的概率。這些概率相當於給源語輸入序列做加權平均,即表示在翻譯一個詞時源語序列哪些詞是重要的。

上圖中間的 Multi-head Attention 其實就是多個點乘注意力並行地處理並最後將結果拼接在一起。一般而言,我們可以對三個輸入矩陣 Q、V、K 分別進行 h 個不同的線性變換,然後分別將它們投入 h 個點乘注意力函數並拼接所有的輸出結果。這種注意力允許模型聯合關注不同位置的不同表徵子空間信息,我們可以理解為在參數不共享的情況下,多次執行點乘注意力。阿里的翻譯系統其實會使用另一種組合點乘注意力的方法,即不如同 Multi-head 那樣拼接所有點乘輸出,而是對點乘輸出做加權運算。

最後上圖左側為 Transformer 的整體架構。輸入序列首先會轉換為詞嵌入向量,在與位置編碼向量相加後可作為 Multi-Head 自注意模塊的輸入,該模塊的輸出再與輸入相加後將投入層級歸一化函數,得出的輸出再饋送到全連接層後可得出編碼器模塊的輸出。這樣相同的 6 個編碼器模塊(N=6)可構成整個編碼器架構。解碼器模塊首先同樣構建了一個自注意力模塊,然後再結合前面編碼器的輸出實現 Multi-Head Attention,最後投入全連接網絡並輸出預測詞概率。此外,每一個編碼器與解碼器的子層都會帶有殘差連接與 Dropout 正則化。

加權的 Transformer 網絡

阿里根據論文 WEIGHTED TRANSFORMER NETWORK FOR MACHINE TRANSLATION 修正原版網絡架構,陳博士表示:「我們首先將谷歌原論文中的 Multi-Head 改進為 Multi-Branch,也就是在每次執行注意力計算時,模型會考慮多個分支以獲得更多的信息。這種機制修正原版 Transformer 中等價處理每一個點乘注意力的方式,而允許為不同點乘注意力分配不同的權重。Multi-Branch 的方法因為簡化了優化過程而能提升收斂速度 15 − 40%,且還能提升 0.5 個 BLEU 分值。」

對於加權的 Transformer 來說,我們需要修改谷歌原版中的 Multi-Head 與 FFN。首先計算多個點乘注意力 head_i 的方式是一樣的,不過 Multi-Branch 如下會計算 head_i bar 而不是將所有 head 拼接在一起。head_i bar 即歸一化的點乘注意力,它輸入前饋網絡 FFN 並將結果做加權和就能得出 Multi-Branch 的最後輸出。

其中所有 k_i 與α_i 的和分別都等於 1,M 表示總的分支數,且表達式 BranchedAttention 會計算所有獨立分支注意力值的加權和。如下所示為阿里翻譯系統所採用的 Multi-Branch 結構,其中 k 是可學習的參數以縮放所有分支對後續運算的貢獻大小,α 同樣也評估各注意力分支對結果的貢獻大小。

如下所示編碼器與解碼器的架構基本一致,只不過解碼器會增加一個 Mask 層以控制模型能訪問的目標語序列,即避免當前位置注意到後面位置的信息。這種 Multi-Branch 的修正結構每一個模塊只會增加 M 個參數,即 α 的數量,這對於整體模型來說基本是可忽略不計的。

相對位置表徵

除了採用 Multi-branch 代替 Multi-head,阿里在 WMT 2018 競賽上採用的模型還有一處比較大的修改,即使用一種可以表徵相對位置方法代替谷歌原論文中所採用的位置編碼。這種位置信息在注意力機制中非常重要,因為 Transformer 僅採用注意力機制,而它本身並不能像 RNN 或 CNN 那樣獲取序列的位置順序信息。所以如果語句中每一個詞都有特定的位置,那麼每一個詞都可以使用向量編碼位置信息,這樣注意力機制就能分辨出不同位置的詞。

陳博士說:「我們另一個改進是參考了谷歌最近發表的一篇論文,在自注意力機制中加入相對位置信息。在 Transformer 原論文中,位置編碼使用的是絕對位置信息,也就是說每一個位置會給一個固定的描述。但是我們在實踐中發現語言中的相對位置非常重要,例如在英語到法語的翻譯中,英語是形容詞加名詞,而法語是名詞加形容詞。這種位置結構其實與短語所在的絕對位置沒有太大的關係,相反相對位置對正確的翻譯會有很大的影響。」

在原版 Transformer 中,谷歌研究者使用不同頻率的正弦和餘弦函數實現位置編碼:

其中 pos 為詞的位置,i 為位置編碼向量的第 i 個元素。給定詞的位置 pos,我們可以將詞映射到 d_model 維的位置向量,該向量第 i 個元素就由上面兩個式子計算得出。也就是說,位置編碼的每一個維度對應於正弦曲線,波長構成了從 2π到 10000⋅2π的等比數列。

而阿里機器翻譯團隊採用的方法會考慮輸入序列中成對元素之間的位置關係,因此我們可以將輸入詞序列建模為一個有向的全連接圖。在論文 Self-Attention with Relative Position Representations 中,作者們將詞 x_i 到詞 x_j 之間的有向邊表示為

兩個向量,它們分別會與 Value 和 Key 向量相加而添加 x_i 到 x_j 的相對位置信息。

上圖展示了將輸入詞序列表示為一個有向全連接圖,成對詞之間會有兩條有向邊。每條邊都編碼了相對位置信息,且相對位置信息的表達如上已經給出。

如下我們將向原版點乘自注意力運算中加入相對位置信息:

其中 z_i 表示一個點乘注意力,α 表示經過 Softmax 後的概率,它衡量了輸入序列需要注意哪些詞。後面即 Value 向量加上相對位置信息的過程,因為是自注意力過程,所以 Value 向量等於輸入向量。因為 Value 向量與 Key 向量是成對出現的,所以相對位置信息同時還應該添加到 Key 向量中,如下表達式在計算 Query 與 Key 向量間相似性的過程中實現了這一點:

其中 e 為 Query 向量與 Key 向量的內積,度量了它們之間的餘弦相似性,如果將這種相似性歸一化則可以度量翻譯某個詞時我們應該關注哪些重要的輸入詞。同樣因為這是自注意力機制,那麼 Query 與 Key 向量都是輸入向量 x。上式分子中的相加項即將相對位置信息加入 Key 向量中。

除了上述這種標準的相對位置修正外,陳博士還表示阿里機器翻譯團隊在解碼部分也會添加這種相對位置信息,這種改進能提升大概 0.4 個 BLEU 分值。

模型集成

對於追求極致準確度的模型來說,速度並不是阿里參賽系統所首要考慮的事情。陳博士說:「這個比賽系統追求性能上的最大化,因此我們會準備上百到幾百個基礎模型,然後再根據貪心算法從這些備選的基礎模型中獲取最優的集成方案。一般這樣的集成根據不同的任務會有幾十到上百個基礎模型。」

其實前面所述的新型 Transformer 架構與修正方案並不會引起翻譯質量的質變,阿里翻譯模型真正強大的地方在於大規模的模型集成,這強烈地需要阿里雲提供算力支持。這種大規模的集成模型除了需要海量的計算力,同時在調參與優化過程中會遇到很多困難。這一點,阿里雲與阿里機器翻譯團隊憑藉經驗有效地解決了它們。

據陳博士表示,阿里在選擇集成的基礎模型時會使用貪心算法。也就是說首先選擇第一個基於 Seq2Seq 或 Transformer 的基礎模型,然後從幾百個備選模型中依次選擇不同的基礎模型,並考慮能獲得最優性能的兩模型集成方法。有了前面兩個模型的集成,再考慮集成哪個模型能獲得最好的性能而確定三模型集成方法。這樣一直迭代下去,直到添加任何基礎模型都不能提升性能就結束集成策略。這一過程對於計算力的需求非常大,因此還是得益於阿里雲的支持。

最後在集成模型的聯合預測中,阿里機器翻譯團隊採取所有基礎模型預測結果的期望作為下一個詞的預測結果。陳博士說:「在集成模型預測下一個詞的時候,各個基礎模型都會給下一個詞打分,而我們會取這些分值的加權平均值作為最後的預測分值。其中各基礎模型所加的權也是模型自己學的,優秀基礎模型所賦予的權重會大一些,不那麼優秀的會賦予小的權重。」

調優與應用

提升譯文效果

阿里其實也用了兩種技術提升譯文的可讀性,首先是基於神經網絡的詞尾預測,這一研究成果阿里已經發表在了今年的 AAAI 上。其次是另一種幹預神經網絡翻譯時間與日期的技術。第一種技術主要解決的是複雜詞形的翻譯,例如在英語到俄語的翻譯中,阿里會將詞幹與詞尾切分開,然後先預測詞幹再預測詞尾。這樣詞尾的預測能利用更多的信息而提升預測結果,因此也就能提升複雜詞形的譯文效果。

第二個技術關注於數字或日期等低頻詞的翻譯。因為神經網絡很難從細節學習到數字或日期的翻譯,所以阿里在原文端使用命名實體識別標記它們,並基於簡單的規則系統進行翻譯。這樣就能提升譯文的流利程度與翻譯效果。

在 WMT 挑戰賽外,在真實場景的翻譯中,司羅教授表示:「阿里的翻譯團隊既包括機器翻譯團隊,也包括人工翻譯團隊。其中機器翻譯團隊完全是算法驅動的,而人工翻譯團隊會基於機器翻譯進行修正。這樣機器翻譯與人工翻譯就能成為一種促進關係,人力可以對翻譯結果進行修正並反饋給系統而產生更流暢的譯文。」

根據陳博士的解釋,阿里巴巴在論文 Improved English to Russian Translation by Neural Suffix Prediction 中提出的這種詞尾預測方法在解碼過程中會獨立地預測詞幹與詞尾,它的基本觀察即俄語和土耳其語等語言中的詞尾更多與前後詞的詞尾相關,而與前後詞的詞幹關係比較小。具體來說,在每一個解碼過程中都會先於詞尾生成詞幹。且在訓練過程中會使用兩種類型的目標端序列,即詞幹序列與詞尾序列,它們都是原目標端序列分割出來的。下圖展示了目標端(俄語)的這種詞幹與詞尾分割:

其中詞尾序列中的標記「N」代表對應詞幹沒有詞尾,上圖下部分的 stemming 表示從原目標序列切分為詞幹和詞尾兩部分。由於詞幹的數量要遠少於詞的數量,且詞尾的數量甚至只有數百,這很大程度上降低了詞彙數據的稀疏性。此外,這種結構在預測詞尾時可以考慮前面生成的詞幹序列,這進一步提升了詞尾預測的準確性,也令譯文讀起來更加流暢。

部署與應用

其實模型在推斷過程中也會做一些如量化等模型壓縮方法,陳博士表示阿里在訓練中會使用 FP32,而在推斷中會使用 FP8 以節省計算成本。但為 WMT 2018 準備的高性能模型並不能直接部署到應用中,因為實際應用要求更低的延遲。

陳博士說:「如果要翻譯一個 30 詞的句子,我們需要控制響應時間在 200 毫秒左右。因此我們需要在效率和性能上找到一個平衡,一般已經應用的在線系統也使用相同的基礎模型,但不會如同競賽系統那樣實現大規模的集成。此外,在這一次的 WMT 競賽中,我們累積了非常多的經驗,因此隨後我們也會將這些經驗逐漸加到在線系統中去。」

阿里翻譯團隊選擇小語種作為攻克對象是根據阿里巴巴業務而定的,不論是俄語還是土耳其語,阿里巴巴電商都需要將英文的產品描述翻譯到對應的小語種,所以有這樣優秀的翻譯平臺才能擴展業務。

據悉,阿里現在每天的電商機器翻譯總量已達 7.5 億次。以阿里巴巴國際站為例,七成買家以英語溝通,還有 30% 為小語種。而賣家端的調研數據顯示,大約 96% 的賣家對小語種無能為力,需要藉助第三方軟體工具進行翻譯溝通。這一現狀,催生了對機器翻譯的巨大需求。

伴隨著阿里速賣通、全球站在俄羅斯、西班牙、巴西、土耳其等國的發展,目前阿里機器翻譯團隊已能支持包括俄語、西班牙語、泰語、印尼語、土耳其語在內的 21 種語言。包含跨境貿易所需的商品內容展示,跨語言搜索,買賣家實時溝通翻譯等 100 多個跨境電商服務場景。

司羅教授表示:「機器翻譯的發展無法脫離用戶與場景,阿里機器翻譯的不斷進步,得益於在電商、新零售、物流等領域積累的豐富場景和數據。特別是在俄語、土耳其語、西班牙語的探索上,讓我們看到了機器翻譯的巨大商業價值與應用潛力。」

本文為機器之心原創,轉載請聯繫本公眾號獲得授權。返回搜狐,查看更多

責任編輯:

相關焦點

  • 百度機器翻譯團隊獲得WMT2019中英翻譯冠軍
    8月1日,WMT2019國際機器翻譯大賽研討會在義大利佛羅倫斯召開。本屆大賽,百度機器翻譯團隊在中文-英文翻譯任務上獲得冠軍。,其中中文-英文翻譯任務是歷年參賽隊伍最多、競爭最為激烈的機器翻譯任務之一。
  • 機翻領域競爭激烈 臉書AI翻譯主管加盟阿里達摩院
    機器翻譯領域裡的競爭愈發激烈,這一點從各大公司對人才的爭奪上就可以看出。  5月21日,阿里巴巴宣布,Facebook(臉書)應用機器學習部AI翻譯團隊主管黃非博士入職阿里巴巴達摩院。在達摩院機器智能技術實驗室,黃非和同事推動人工智慧(AI)翻譯在新零售、跨境電商、視頻等領域的實時翻譯應用。
  • 搜狗機器翻譯團隊獲得 WMT 2017 中英機器翻譯冠軍
    如今,簡單地對神經網絡模型的套用已經不足以被頂級會議接收,研究者們討論的核心問題通常是如何優化神經網絡結構以便解決機器翻譯中的詞對齊、罕見詞、長句等難點問題。2014 年提出的注意力(attention)模塊就是針對性處理因為不同語言語法結構不同產生的語序不同、來源詞與目標詞對齊難的問題。
  • 百度機器翻譯五大領域實現新突破 獲WMT2019中英翻譯冠軍
    8月1日,WMT2019國際機器翻譯大賽研討會在義大利佛羅倫斯召開。本屆大賽,百度機器翻譯團隊在中文-英文翻譯任務上獲得冠軍。、競爭最為激烈的機器翻譯任務之一。
  • 獨家| 阿里達摩院大牛任小楓離任:一波三折轉入高德地圖
    機器之心消息,經機器之心聯繫多方知情人士確認,阿里達摩院前視覺實驗室負責人任小楓已經離開阿里達摩院,轉入高德地圖,擔任高德地圖首席科學家。2014 年,高德被阿里全資收購,現作為阿里巴巴的全資子公司。目前,阿里達摩院官網仍顯示任小楓為其機器實驗室負責人。
  • 亞馬遜開源神經機器翻譯框架Sockeye:基於Apache MXNet的NMT平臺
    通過 Sockeye 框架,你可以建模機器學習以及其他序列到序列的任務。基於 Apache MXNet 的 Sockeye 架構可為打造、訓練和運行當前最優的序列到序列模型承擔絕大部分工作在自然語言處理 (NLP) 中,很多任務是關於序列預測問題。例如,在機器翻譯 (MT) 中,任務是在給定輸入單詞序列的情況下預測已翻譯單詞的序列。執行這種任務的模型常被稱為序列到序列模型。
  • 阿里達摩院科學家,3年造出小蠻驢!量產物流機器人,全自動駕駛
    最終,這套嵌入式計算硬體+達摩院量身打造的算法、壓縮模型,讓小蠻驢不僅有L4級自動駕駛能力,還能夠低功耗長續航,為量產和規模化商用奠定了基礎。那麼這樣的外觀和技術硬體,究竟讓小蠻驢擁有怎樣的能力?阿里官方回答,核心還是最前沿的AI和自動駕駛的基礎技術,並且在智能、安全、可量產三方面具備行業領先的競爭力。首先是智能,具備類人認知決策能力。
  • 資源| 史丹福大學NLP組開放神經機器翻譯代碼庫(附論文)
    選自斯坦福機器之心編譯參與:吳攀、杜夏德近日,史丹福大學自然語言處理組(Stanford NLP)發布了一篇文章,總結了該研究組在神經機器翻譯(NMT)上的研究信息。在這篇文章中,他們還放出了在多種翻譯任務上(比如英德翻譯和英語-捷克語翻譯)實現了當前最佳結果的代碼庫(codebase)。
  • 神經結構搜索在機器翻譯中的應用
    2018 級研究生,研究方向包括神經網絡結構搜索、機器翻譯。    今天和大家介紹谷歌將結構搜索應用到機器翻譯的一項工作—The evolved transformer(ET)[1]。The evolved transformer 這項工作的出發點是將結構搜索應用到機器翻譯中,基於Transformer結構選出更好的候選。
  • 微信AI首次奪冠WMT2020國際機器翻譯大賽中英方向
    作為全球學術界最具權威的機器翻譯比賽,近日,WMT2020國際機器翻譯大賽的榜單停止提交結果並發布排名,其中騰訊微信AI團隊在「中文-英文」翻譯任務上奪得冠軍。在賽制上,組委會根據中英、英中、中日等不同翻譯任務提供測試集,參賽者在線提交機器翻譯結果,組委會將根據在國際上具有廣泛認可度的BLEU自動評估指標對參賽者提交的機器譯文和標準答案進行擬合計算,擬合程度高者排在前面。其中「中文-英文」翻譯任務是大賽歷年來競爭最激烈的領域,也是最大的看點之一,在歷屆冠軍中,微軟、騰訊翻譯君、搜狗都榜上有名。
  • 阿里達摩院、之江實驗室又新出了哪些「黑科技」?
    此次迭代,阿里達摩院正是採用了緊耦合算法,該算法首先對傳感器原始數據作融合,再進行集中式計算,實現了GPS、慣導、輪速、相機、雷射雷達等多模態傳感器的融合,用低精度的傳感器實現了釐米級定位。值得一提的是,即使是在沒有GPS信號的隧道、地庫等場所,該定位系統也能正常運行。
  • 深2.5至4倍,參數和計算量卻更少,DeLighT Transformer是怎麼做到的?
    但由於模型參數量過大,該模型訓練困難、部署不方便,研究人員一直在探究如何優化 Transformer。近日,來自華盛頓大學和 FAIR 的 Sachin Mehta 等人提出了一個網絡結構較深但輕量級的 Transformer——DeLighT。
  • 熱門的模型跨界,Transformer、GPT做CV任務一文大盤點
    其實不然,現階段已出現好多研究,它們通過算法的改進,將在 NLP 領域表現良好的模型,如 Transformer、GPT 等進行改進並應用於視覺任務,不僅實現了模型跨界,而且取得了不錯的性能。模型跨界效果如何呢?人工智慧的快速發展已經淋漓盡致地體現在我們的日常生活中,從人臉識別、語音識別到機器翻譯等等,無不展示著 AI 帶來的便利。
  • 解析Transformer模型
    前言Google於2017年提出了《Attention is all you need》,拋棄了傳統的RNN結構,「設計了一種Attention機制,通過堆疊Encoder-Decoder結構」,得到了一個Transformer模型,在機器翻譯任務中「取得了BLEU值的新高」。
  • 阿里達摩院實習生立功!何愷明Mask R-CNN精度提升,一半輸入數據量...
    這就是達摩院「頻域中學習」解決的核心問題。  他們提出在頻域,即離散餘弦變換域(DCT)中重塑高解析度圖像,而不是在空間域調整它們的大小,然後將重新形成的DCT係數提供給卷積神經網絡模型進行推理,從而解決了這些問題。  同時,這個方法幾乎不需要修改現有的卷積神經網絡模型,還是以RGB圖像作為輸入。
  • Transformer:隱藏的機器翻譯高手,效果趕超經典 LSTM!
    如果想了解更科學的方法,並且閱讀關於基於不同注意力機制的序列到序列模型方法,可以參考這篇《基於注意力的神經機器翻譯的有效方法》的論文(https://nlp.stanford.edu/pubs/emnlp15_attn.pdf )。
  • 阿里達摩院發布十大科技趨勢:模塊化讓造芯像搭積木一樣簡單
    乾明 發自 凹非寺量子位 報導 | 公眾號 QbitAI「掃地僧」如何看待2020科技趨勢?剛剛,阿里達摩院2020十大科技趨勢發布,涵蓋人工智慧、晶片製造、量子計算、工業網際網路、機器協作、區塊鏈、隱私保護、雲計算等多個領域,勾勒新一年科技走向。
  • Transformer新型神經網絡在機器翻譯中的應用|公開課筆記
    在講課開始之前先簡短的做個自我介紹,我是博士畢業於中國科學院計算技術研究所,方向是機器翻譯的方向,目前在阿里巴巴翻譯平臺擔任翻譯模型組負責人,主要是為阿里巴巴的跨境電商貿易提供豐富的語言支持,讓跨境貿易沒有語言障礙。今天非常高興受到CSDN AI科技大本營的邀請,給大家分享自己在機器翻譯方面的研究和工作。
  • 百分點認知智能實驗室出品:機器翻譯是如何煉成的(下)
    在本篇文章中,我們將分享機器翻譯系統的理論算法和技術實踐,講解神經機器翻譯具體是如何煉成的。讀完本文,您將了解:  · 神經機器翻譯模型如何進化並發展成令NLP研究者萬眾矚目的Transformer模型;  · 基於Transformer模型,我們如何打造工業級的神經機器翻譯系統。
  • 阿里達摩院專家解密:AI算法將肺炎疑似病例基因分析縮短至半小時的...
    雷鋒網了解到,2月1日,浙江省疾控中心上線自動化的全基因組檢測分析平臺,利用阿里達摩院研發的AI算法,可將原來數小時的疑似病例基因分析縮短至半小時,大幅縮短確診時間,並能精準檢測出病毒的變異情況。此次研發的自動化全基因組檢測分析平臺屬於高通量測序,由浙江省疾病預防控制中心、阿里達摩院醫療AI團隊和傑毅生物技術公司共同研發,突破之處在於大幅縮短了檢測時間。針對平臺的合作細節以及未來的應用規劃,雷鋒網與阿里達摩院的一位算法專家進行了採訪。Q:傳統的病毒基因分析過程,主要包含哪些步驟和階段?