NLPer復工了!先看看這份2019機器學習與NLP年度盤點吧

2020-12-24 機器之心Pro

機器之心編譯作者:Sebastian Ruder機器之心編譯參與:王子嘉、Geek AI

2019 年是機器學習和自然語言處理領域飛速發展的一年。DeepMind 科學家 Sebastian Ruder 從 10 個方面總結了我們在過去的一年中取得的重要進展,對未來的研究方向有著重要的指導意義。

本文介紹了 2019 年中 機器學習和自然語言處理領域 10 個影響巨大的有趣研究方向。對於每個方向,本文都會先總結今年我們在該方向取得的主要進展,簡要說明我認為這個方向重要的原因,最後對未來的工作進行簡短的展望。這 10 個方向分別是:

通用無監督預訓練(Universal unsupervised pretraining)彩票(Lottery tickets)假設神經正切核(The Neural Tangent Kernel)無監督多語言學習(Unsupervised multilingual learning)更多魯棒的對比基準(More robust benchmarks)機器學習與自然語言處理對科學發展的貢獻(ML and NLP for science)解決自然語言生成問題中的解碼誤差(Fixing decoding errors in NLG)增強預訓練的模型(Augmenting pretrained models)高效且記憶範圍廣的 Transformer(Efficient and long-range Transformers)更加可靠的分析方式(More reliable analysis methods)通用非監督預訓練由於 BERT(Devlin et al., 2019)及其變體橫空出世,無監督預訓練在今年的自然語言處理(NLP)領域大放異彩。眾多 BERT 的變體已經在多模態場景下被應用,這些場景主要涉及文本及其相關的圖像、視頻(如下圖所示)。無監督訓練也開始滲透到過去監督學習統治的領域。在生物信息學領域中,Transformer 語言模型的預訓練也開始被應用在蛋白質序列預測上了(Rives et al., 2019)。在計算機視覺領域,包括 CPC(Hénaff et al., 2019), MoCo(He et al., 2019)和 PIRL(Misra & van der Maaten, 2019)在內的模型,以及為了提升在 ImageNet 數據上的採樣效率與圖像生成效果而提出的強大的生成器模型 BigBiGAN(Donahue & Simonyan, 2019)都利用了自監督學習方法。在語音領域,多層卷積神經網絡(Schneider et al., 2019)和雙向 CPC(Kawakami et al., 2019)學習到的表徵都比最先進的模型表現要好,而且所需的訓練數據也更少。它為什麼重要?無監督預訓練使得我們在訓練模型時對已標註數據的需求量大大減少。這使得那些以前數據需求得不到滿足的領域開始有了煥發活力的可能性。接下來會怎麼發展?儘管研究人員已經著手研究無監督預訓練,而且已經在一些獨立領域上已經取得了巨大的成功。但如果未來它能夠朝著多模態緊密融合的方向發展,應該還是很有趣的。

最近提出的 BERT 的多模態變體 VideoBERT(Sun et al., 2019)。它可以基於食譜生成視頻的「token」(圖片上半部分),還可以在給定某個視頻「token」時,預測後面不同的時間尺度下的「token」(圖片下半部分)。彩票假設如下圖所示,Frankle and Carbin(2019)定義了「中獎彩票」(winning tickets)——也就是在密集的、隨機初始化的前饋網絡中找到的初始化良好的子網絡,獨立訓練這個子網絡應該得到與訓練完整網絡相近的準確率。雖然最初的剪枝過程只適用於小的視覺任務,但後來的工作 (Frankle et al., 2019) 將剪枝應用於早期的訓練,而不是初始化階段,這使得找到更深的模型的小子網絡成為可能。Yu et al.(2019) 在 NLP 與 RL 的 LSTM 和 Transoformer 模型中也發現了「中獎彩票」。儘管這種中獎的彩票還是很難找到的,但它們似乎可以在數據集和優化器之間轉移 (Morcos et al., 2019)。為什麼重要?在神經網絡變得越來越先進的同時,它們的規模也與日俱增,訓練它們並將其用於預測的算力需求也越來越大。能夠穩定地找出達到類似性能的較小的子網絡可以大大減少訓練與推理的算力需求。這可以加速模型迭代,並且為終端設備計算和邊緣計算開啟了新可能。接下來會怎麼發展?目前來說,在低資源的場景下,為了產生實際的效益,想要找出「中獎彩票」仍然需要巨大的計算開銷。更加魯棒的 one-shot 剪枝方法對剪枝過程中噪音的敏感度小一些,因此可以在一定程度上緩解這個問題。研究「中獎彩票」的特性也能夠幫助我們更好地理解初始化,了解神經網絡訓練的過程。

不同剪枝率下的測試準確率——實線代表中獎彩票,虛線代表隨機採樣得到的子網絡(Frankle & Carbin, 2019)。神經正切核估計一般人都很難想到,當神經網絡很寬(更確切地說是無限寬)時,其實是比它窄的時候更好研究的。研究結果表明,在無限寬極限下,神經網絡可以近似為一個帶核的線性模型,該核即為神經正切核(Neural Tangent Kernel,NTK,Jacot et al., 2018)。實際上,這些模型的性能不及深度有限的模型(Novak et al., 2019; Allen-Zhu et al., 2019 ; Bietti & Mairal, 2019 ),這也限制了研究結果在標準方法上的應用。然而,近期的一些工作(Li et al., 2019; Arora et al., 2019)已經大大降低了神經正切核與標準方法的性能差距(參見 Chip Huyen 關於 NeurIPS 2019 其他相關論文的博文)。為什麼重要?NTK 可能是我們所掌握的用於分析神經網絡理論行為最強大的工具。雖然它也有其局限性(即實用的神經網絡仍然比相應的 NTK 版本的模型性能更好),而且這個領域迄今為止的研究成果都還沒有轉化成實際效益,但它可能幫助我們打開深度學習的黑盒。下一步該做什麼?目前看來,NTK 與標準方法的差距主要來源於寬度的不同,未來的工作可能會試著去描述這種差距。這也將幫我們將無限寬度限制的想法放在實踐中。最終,NTK 可能幫助我們理解神經網絡的訓練過程和泛化行為。

帶有 NTK 的線性模型在輸出放縮因子 α 取不同值時的學習過程,圖中的橢圓為 NTK 的可視化結果。無監督多語言學習多年來,跨語言表徵主要關注單次級別的研究,詳見總綜述文章「A Survey of Cross-lingual Word Embedding Models」。得益於無監督預訓練的發展,2019 年間湧現出了諸如 multilingual BERT,XLM(Conneau & Lample, 2019)和 XLM- R(Conneau et al., 2019)。儘管這些模型沒有顯式地使用任何跨語言信號,但即使在沒有共享單詞表或進行聯合訓練的情況下(Artetxe et al., 2019; Karthikeyan et al., 2019 ; Wu et al., 2019),它們在不同語言之間的泛化效果也是出奇地好。「Unsupervised Cross-lingual Representation Learning」對多語言模型進行了概述。這種深度模型也給無監督機器翻譯領域帶來了很多提升(Song et al., 2019; Conneau & Lample, 2019)。該領域在 2018 年也取得了重要的進展,由於統計方法與神經網絡方法更合理的融合而得到了提升。另一個值得高興的發展是我們可以根據現有的英文預訓練表徵構建深度多語言模型(見下圖)。為什麼重要?現有的跨語言表徵技術使得除了英語外的其它語言模型可以使用更少的語料進行訓練。而且,如果英文中有充足的標註數據,那這些方法就能讓 zero-shot 遷移成為可能。最終,它們也有可能幫助我們理解不同語言間的關係。接下來該怎麼發展?目前這些方法在沒有任何跨語言監督信號的情況下能取得如此好的性能的原因尚不明確。進一步了解這些方法的工作機理可能會幫助我們設計出更強大的算法,也有可能揭示出不同語言結構之間的關係。此外,我們不應該只把注意力放在 zero-shot 遷移上,我們還應該考慮從那些幾乎沒有標註數據的目標語言中學習。

Artetxe et al. (2019) 提出的單語言遷移方法的四個步驟。更魯棒的對比基準

SOTA 中有東西腐朽了——Nie et al. (2019) 對莎士比亞的名言「Something is rotten in the state of Denmark」的改述。

近期,像 HellaSWAG(Zellers et al., 2019)這種新的 NLP 數據集都是為了考驗當前性能最優的模型而創建的。數據集中的示例都是經過人工篩選的,以明確保證留下的數據都是那些目前性能最優的模型無法成功處理的(相關示例見下圖)。這種人為參與的對抗性數據構建工作可以重複多次,例如最近的對比基準 Adversarial NLI(Nie et al., 2019)就使得數據集的創建對於目前的自然語言推斷模型來說更具挑戰性。為什麼重要?許多研究者發現,當前的 NLP 模型並沒有學到他們應該學到的東西,只是用一些很簡單的啟發式方法去發現一些數據中很淺層的線索,詳見「NLP's Clever Hans Moment has Arrived」。隨著數據集變得越來越魯棒,我們希望新提出的模型可以被逼著學習到數據中真正深層次的關係。接下來該怎麼發展?隨著模型越來越強大,大多數數據集需要不斷改進,否則很快就會過時。我們需要專用的基礎系統和工具來促進這一進程。此外,應該運行合適的對比基線,包括使用不同數據變體的簡單方法和模型(例如使用不完整的輸入),以便數據集的初始版本儘可能魯棒。

上圖為 HellaSWAG 中的一個句子填空多選題,當前性能最優的模型很難回答這個問題。最難的例子在於複雜度需要「剛剛好」,回答中會包含三個背景中的句子和兩個生成的句子(Zellers et al., 2019)。科學中的機器學習與自然語言處理將機器學習用於基礎科學問題取得了一些重要的進展。本文作者主要關注的領域是深度神經網絡在蛋白摺疊預測以及多電子薛丁格方程(Pfau et al., 2019)上的應用。從 NLP 的角度來說,值得高興的是,即使是標準模型在融合領域指示後也能得到巨大的進步。在材料科學領域,研究人員完成了一個使用詞嵌入來分析潛在知識的工作(Tshitoyan et al., 2019),從而預測某種材料會不會擁有某種特性(見下圖)。在生物領域,基因、蛋白質等數據都是序列型的,因此 NLP 方法(LSTM,Transformer 等)天生就適合解決這類問題,這些方法已經被應用於蛋白質分類任務中了(Strodthoff et al., 2019; Rives et al., 2019)。為什麼重要?科學可以說是機器學習影響最大的應用領域之一。解決方案可能對許多其它的領域產生很大的影響,並且可以幫助解決實際問題。下一步怎麼做?從在物理問題中對能量建模(Greydanus et al., 2019 )到求解微分方程(Lample & Charton, 2020),機器學習技術不斷地被應用在新的科學問題中。2020 年,讓我們看看這其中最具影響力的工作是什麼,這將非常有趣!

基於不同時間段文獻的摘要進行訓練獲得詞嵌入,從而預測這些材料在未來會被作為什麼(鐵電體、太陽能光伏、拓撲絕緣體)。圖片展示了預測中最可能被研究的 50 個材料與所有候選材料的對比 (Tshitoyan et al., 2019 )。解決自然語言生成(NLG)中的解碼誤差儘管自然語言生成(natural language generation, NLG)領域的模型越來越強大,但是它們仍然經常生成重複或者毫無意義的話(如下圖所示)。這主要是最大似然訓練造成的。值得慶幸的是,這一點正在被改進,並且其進展是與建模工作是正交的。這類改進大部分都是以新的採樣方式(如原子核採樣,Holtzman et al., 2019)或新的損失函數(Welleck et al., 2019)的形式出現。另外一個令人驚訝的發現是,好的搜索結果並沒有幫助模型獲得更好的生成結果:當前的模型在一定程度上依賴於不精確的搜索與集束搜索的誤差。相反,在機器翻譯的場景下,精確搜索通常會返回無意義的翻譯結果(Stahlberg & Byrne, 2019)。這個發現表明,搜索和建模方面的進步必須攜手並進。為什麼重要?NLG 是 NLP 中的最基本任務之一。在 NLP 和機器學習的研究中,大多數論文都重點關注對模型的改進,而其它部分的發展往往被忽略。對於 NLG 研究者來說,重要的是要提醒我們自己,我們的模型仍然有缺陷,也許可以通過修正搜索或訓練過程來改進輸出。下一步怎麼做?儘管 NLG 模型越來越強大,而且有了遷移學習的助力,但是模型的預測結果依然包含了很大程度的認為因素。找出並理解這些人為因素產生的原因是一個很重要的研究方向。

GPT-2 使用集束搜索以及單純的(貪婪)採樣方法產生的結果,藍色部分是重複的,紅色部分則是毫無意義的話。增強預訓練的模型2019 年,值得高興的是,我們使預訓練模型的方法擁有了新的能力。有些方法使用知識庫來加強預訓練模型,用以提升模型在實體識別(Liu et al., 2019 )任務上的表現和對事實的回憶(Logan et al., 2019)。還有一些方法通過訪問一些預定義的可執行程序完成簡單的算法推理(Andor et al., 2019)。由於大多數模型都有較弱的歸納偏置,且大部分知識是從數據中學習而來,因此增強預訓練模型的另一個選擇就是增強訓練數據本身(比如獲取常識,Bosselut et al., 2019),如下圖所示。為什麼重要?模型正變得越來越強大,但有許多知識是模型無法僅從文本中學習的。特別是在處理更複雜的任務時,可用的數據可能太有限,無法使用事實或常識進行顯式的推理,因此可能需要更強的歸納偏置。下一步怎麼做?隨著這些模型被應用於更有挑戰性的問題,越來越有必要對模型進行組合性的修改。在未來,我們可能會結合強大的預訓練模型和可學習的組合程序(Pierrot et al., 2019)。

一個標準的帶有多頭注意力機制的 Transformer。在給定頭實體和關係的情況下,訓練後的模型可以預測知識庫三元組中的尾實體(Bosselut et al., 2019)。高效且記憶範圍廣的 Transformer今年 Transformer 架構得到了一些改進(Vaswani et al., 2017 )。這些新的架構(如 Transformer-XL,Dai et al., 2019 與 the Compressive Transformer,Rae et al., 2020 )使其可以獲取長距離依賴。還有一些方法希望通過使用不同的(通常也很稀疏的)注意力機制(如 adaptively sparse attention, Correia et al., 2019; adaptive attention spans, Sukhbaatar et al., 2019 ; product-key attention, Lample et al., 2019; locality-sensitive hashing, Kitaev et al., 2020 等)來使 Transformer 更高效。在基於 Transformer 的預訓練領域中,也出現了很多更高效的變體,比如使用了參數共享的 ALBERT(Lan et al., 2020)以及使用更高效預訓練任務的 ELECTRA(Clark et al., 2020)等。當然,也有一些沒有使用 Transformer 而且同樣更高效的預訓練模型,比如一元文檔模型 VAMPIRE (Gururangan et al., 2019) 和 QRNN-based MultiFiT (Eisenschlos et al., 2019)。另一個值得注意的趨勢是:對大型 BERT 進行蒸餾,以獲得更小的模型(Tang et al., 2019 ; Tsai et al., 2019 ; Sanh et al., 2019)。為什麼重要?Transformer 架構從誕生之初就很有影響力。它是一種最先進的 NLP 模型,並已被成功地應用於許多其它的領域(參見第 1 和第 6 節)。因此,對 Transformer 架構的任何改進都可能產生強烈的連鎖反應。下一步怎麼做?這些改進需要一段時間才能落實到實踐中,但是考慮到預訓練模型的普及和易用性,這種更有效的替代方案可能很快就會被採用。總的來說,我們希望研究者可以持續關注強調效率的模型架構,而稀疏性就是其中的主要趨勢之一。

Compressive Transformer(Rae et al., 2020)可以將過去的激活函數的細粒度記憶壓縮成粒度較粗的壓縮記憶。更可靠的分析方法2019 年的一個關鍵趨勢是分析模型的論文越來越多。事實上,本文作者最喜歡的幾篇論文就是這樣的分析論文。比較早的一個亮點工作是 Belinkov & Glass 於 2019 年對分析方法的綜述。同時,在我的記憶中,今年也是第一次開始出現有工作致力於分析 BERT 這一種模型(這類論文被稱為 BERTology)的論文。在這種情況下,探針(probe)已經成為一種常用的工具,它的目的是通過預測某些屬性來了解模型是否「理解」了詞法、句法等。本文作者特別喜歡那些探究如何讓探針技術更可靠的論文(Liu et al., 2019 ; Hewitt & Liang, 2019)。可靠性也是一直在被討論的一個主題,即注意力是否能提供有意義的解釋(Jain & Wallace, 2019; Wiegreffe & Pinter, 2019; Wallace, 2019)。研究人員對分析方法的興趣方興未艾,最好例證可能是 ACL 2020 的新賽道——NLP 模型的分析與可解釋性。為什麼重要?目前最先進的方法一般都被當做黑盒來使用。為了開發更好的模型並在現實世界中使用它們,我們需要理解為什麼模型會做出這些決策。然而,我們目前解釋模型預測結果的方法仍然有限。下一步怎麼做?我們需要做更多的工作來解釋那些超出我們預期的預測,它們通常是不可靠的。在這個方向上,的一個重要趨勢是更多數據集提供了人工書寫的解釋(Camburu et al., 2018 ; Rajani et al., 2019; Nie et al., 2019)。

用來學習表徵中的語言知識的 probing 設置。

以上便是作者對 2019 年 NLP 領域的盤點了。可以看出,NLP 依然是一個蓬勃發展的領域,很多理論都在快速發展,未來研究成果可期。

相關焦點

  • nlp課程的危害 - CSDN
    常用手段,簡單點,特徵相似度,難點機器學習分鐘分類回歸模型  連結:NLP自然語言處理、推薦系統、以及計算機視覺哪個就業前景更好一些?nlp其實目前需求量比較小,可能也是由於坑太大所以做的公司比較少吧哈哈哈。很多nlp的候選人有可能做了底層算法研究(科學家),有的做了各種業務系統和用戶畫像等等(對話,翻譯等等)(大量的工程師做這個),還有一部分去做搜索推薦了。連結:NLP自然語言處理、推薦系統、以及計算機視覺哪個就業前景更好一些?
  • 2019 年 NLP 領域都發生了哪些大事件?
    日前,NLP 專家 Elvis 盤點了 2019 年 NLP 和 ML 領域發生的大事件,涵蓋具有價值的論文、文章、工程工作、年度報告等等,並為大家呈上了值得關注和學習的一波課程和圖書資源。針對所有的大事件,Elvis 還事無巨細地為大家一一附上了相關連結,誠意滿滿!
  • 從星際2深度學習環境到神經機器翻譯,上手機器學習這些開源項目必...
    雖然研究者們在機器學習領域取得了讓人興奮的成果,不過我們仍然處於機器學習發展的早期階段。對於剛接觸機器學習的開發者來講,想要理解什麼是機器學習,首先要搞懂三個部分:輸入、算法、輸出。算法:如何處理和分析數據機器學習算法可利用數據執行特定的任務,最常見的機器學習算法有如下幾種:1.監督學習。監督學習使用以及標註過的和結構化的數據,通過制定一組輸入數據集合所需的輸出,機器可以學習如何識別目標並且映射到其他的學習任務上。
  • 一文概述 2018 年深度學習 NLP 十大創新思路
    我試圖保持這份清單的簡潔性,因此如果沒有覆蓋到所有相關工作,還請大家見諒。這份清單包含主要與遷移學習相關的想法及其概述,不過也必然會帶有一定的主觀性。其中的大部分(一些例外)並不是一種趨勢(但我預測其中的一些想法在 2019 年會變得更具趨勢性)。最後,我希望在評論區中看到你的精彩評論或者其他領域的精彩文章。
  • 復旦邱錫鵬教授:2020最新NLP預訓練模型綜述
    中的預訓練模型,深入盤點了目前主流的預訓練模型,提出了一種預訓練模型的分類體系。 該綜述系統地介紹了nlp中的預訓練模型。主要的貢獻包括: 1、深入盤點了目前主流的預訓練模型,如word2vec,ELMo,BERT等。 2、提出了一種預訓練模型的分類體系,通過四種分類維度來劃分目前已有的預訓練模型。
  • 2019·年度盤點·女頻完本排行榜
    正式開始之前,說一下這個顏色,綠色是7分以下,黃色是7分以上的書,有些書顯示為0分,是因為點評人數沒有達到預設值,就默認為0分~有些話去年說過,但今年還是要再說一遍的,本期專為女性閱讀向的讀者打造,可能有些男同胞,控制不住自己的爪子,非要點進來瞅瞅,不過可以先看看這個需要引以為戒的慘痛經歷
  • D站年終盤點:2019年度你心目中最好玩的五款遊戲是?
    懂球帝首頁>足球新聞> D站年終盤點:2019年度你心目中最好玩的五款遊戲是? D站年終盤點:2019年度你心目中最好玩的五款遊戲是?每天下午17:00,讓我們匯聚這裡來看看在非足球領域,D站的球迷們在2019年都在看著什麼?玩著什麼?關注著什麼?生成屬於足球迷們的年度生活方式報告。
  • 資源| 史丹福大學NLP組開放神經機器翻譯代碼庫(附論文)
    (Achieving Open Vocabulary Neural Machine Translation with Hybrid Word-Character Models)摘要:幾乎之前所有的神經機器翻譯(NMT)使用的詞彙都受限,隨後可能用一個方法來修補未知的單詞。
  • 用Spark-NLP建立文本分類模型
    除了機器學習算法,Spark MLlib還提供了大量的特徵變換器,如Tokenizer、StopWordRemover、n-grams和countvector、TF-IDF和Word2Vec等。有關更多信息,請在網站上查看注釋器列表及其用法https://nlp.johnsnowlabs.com/docs/en/annotators。設置環境讓我們繼續看看如何在AWS EMR上設置Spark NLP。1.在啟動EMR集群之前,我們需要創建一個引導操作。
  • PTMs|2020最新NLP預訓練模型綜述
    該綜述系統地介紹了nlp中的預訓練模型。主要的貢獻包括:1.深入盤點了目前主流的預訓練模型,如word2vec,ELMo,BERT等。2.背景「nlp、cv領域的傳統方法極度依賴於手動特徵工程」。例如nlp中的log-linear、CRF模型等,cv中各種抽取特徵的模型,如sift特徵等。深度學習中本質上是一種表示學習,能夠一定程度上避免手動的特徵工程。
  • 2019·年度盤點·體育競技篇(for Kobe)
    電競文(還有一批男頻的電競文會在遊戲分類裡盤點)《全職高手》蝴蝶藍,群像類電競文的巔峰之作,作品語言文字詼諧幽默,文風歡樂又不失健康向上,這本類dnf的競技文,應該算得上是目前網絡競技文的巔峰了吧?完本足球是男人的浪漫,足球文大盤點來一發年度分類盤點匯總:2019·年度盤點·末日·靈氣復甦·科幻篇2019·年度盤點·西方奇幻篇
  • 泰瑞機器:2019年年度報告
    2019 年年度報告公司代碼:603289                            公司簡稱:泰瑞機器                   泰瑞機器股份有限公司
  • 2019·年度盤點·口碑新書排行榜
    這是2019年度系列盤點的第五篇,年度新書佳作,選書範圍限定在19年開始連載的新書,大致是18年10月份到19年10月份之間。全文6500字,閱讀大約十分鐘。赤戟月度推書·新書好評回饋·必讀(2019·10)赤戟月度推書·新書好評回饋·必讀(2019·9)年度分類盤點匯總:2019·年度盤點·完本佳作排行榜2019·年度盤點·武俠·仙俠篇
  • 自然語言處理(NLP)入門指南
    displaCy網站上的可視化依賴解析樹https://demos.explosion.ai/displacy/?v=nfoudtpBV68&list=PL6397E4B26D00A269•  斯坦福CS224d:自然語言處理的深度學習[更高級的機器學習算法、深度學習和NLP的神經網絡架構]http://cs224d.stanford.edu/syllabus.html•  Coursera:自然語言處理簡介[由密西根大學提供的NLP課程]https
  • 從ACL 2019 看 NLP 未來發展趨勢
    例如,Stanovsky 等人(https://arxiv.org/abs/1906.00591)說明了,四種商用機器翻譯系統以及目前最先進的兩種學術模型都非常易於出現與性別相關的翻譯錯誤。一種新的 NLP 範式:先預訓練、再調優正如 Krizhevsky 等人於 2011 年發表的開創性工作「ImageNet Classification with Deep Convolutional Neural Networks」一夜之間掀起了計算機視覺領域的革命,深度學習在自然語言處理領域的應用同樣也處於爆炸性的快速增長期。
  • 2019年度安卓手機盤點,最強性能旗艦、年度最流暢手機揭曉!
    2019年已經過去又到了一年一度手機盤點的時候今年各家手機廠商可以說都不怎麼好過發布會。成了業內常態還給我們假裝科普要式哪天把我惹急了我就給你們假裝科普。多少個弱點和技術不成熟19年也成為了智慧型手機發展以來各品牌廠商廝殺最為慘烈的。而為了獲取線上份額可謂是煞費苦心先來說說,oppo推出了windows系列將彈出式設計。
  • 機器之心獨家對話百度 NLP:先解決語義理解,再談機器翻譯取代人類
    思考的前提,是先能聽得懂語言。所以從 NLP 角度來說,更多的是希望機器人能懂語言、理解語言,然後能夠跟人交流。那這款小度機器人,過去的幾年也有頻繁的亮相。領導百度 NLP 工作的百度副總裁王海峰博士,已於近日當選 ACL Fellow機器之心:谷歌最近發布了神經網絡翻譯系統,我們怎麼看這個系統?
  • 「漢語盤點2020」年度字詞投票開啟!
    「不會吧不會吧」!今年就要結束了?「漢語盤點2020」開始啦!    這一年,「新冠」暴發,人類命運「風月同天」;「共克時艱」,抗「疫」戰士「最美逆行」。佩戴好「口罩」,出示「健康碼」,謹慎出行不聚集;檢測「核酸」,有序「復工」,常態防疫不放鬆。
  • 2019·年度盤點·日常·後宮·商戰·都市生活篇
    這是2019年度系列盤點的第十二篇,都市生活流的分類大盤點,全文15000字,閱讀約17分鐘。盤點很大很細,需要一點耐心。主要涉及2019年上架的新書和去年的完本書。乾草最後是圖片榜單,自取,其中可能會混入一些別的書,我看了下,是好書,就沒排除了:年度分類盤點匯總:2019·年度盤點·無限·科幻篇2019·年度盤點·都市娛樂篇