國外有個小姐姐給29篇經典機器學習論文寫了總結 | 資源

2020-12-13 量子位

乾明 發自 凹非寺 量子位 報導 | 公眾號 QbitAI

如果你想在人工智慧領域深耕,閱讀經典論文是一個必須要做的事情。

但是,怎麼讀?讀哪些?論文中哪些是關鍵?都是需要讓人去琢磨的地方。

最近,有一份資源悄然流傳出來,裡面匯集了29篇經典的機器學習論文的總結,這些論文都是作者近半年來讀到的。

每篇論文,作者都給出了論文的主要思路,與其他相關的研究有什麼區別,這篇論文有哪些亮點與創新點等等。而且,基本上每篇論文都附上了連結。

有哪些論文?

這些論文,一共分為六個部分。

語言/序列模型(Language/Sequence Models)

這部分,一共6篇。分別是:

BERT: Language Model Pretraining

來自谷歌AI,提出了一種強大的新的語言表徵模型。

You May Not Need Attention

來自艾倫人工智慧研究所,提出了一種循環神經翻譯模型,不需要注意力機制,也沒有單獨的編碼器和解碼器。

Trellis Networks for Sequence Modeling

論文提出了用於序列建模的新架構Trellis Networks,是時間卷積網絡和RNN之間的理論橋梁,但適用範圍比前者更小,比後者更廣泛。來自CMU和英特爾。

On the Evaluation of Common Sense Reasoning in Natural Language Processing

來自麥吉爾大學,目標是深入到用於評估模型性能的測試集中,並試圖理解它在多大程度上對模型行為進行了嚴格測試。這篇論文主要討論的是Winograd Schema Challenge (WSC),圖靈測試的一個變種,旨在判定AI系統的常識推理能力。並提出了一個新的評估標準,彌補WSC等基準測試中的局限性。

SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

這篇論文來自上海交通大學等。作者提出了一個序列生成框架SeqGAN,來解決GAN在生成離散數據時的局限性。

Evaluating Language GANs and Neural Text Generation

這篇論文研究了當前用於比較文本生成的度量標準為什麼無法全面描述模型的運行情況,並在與傳統的最大似然估計方法相比的情況下,評估了用於生成文本的GAN的性能。

元學習/多任務(Meta Learning / Multi Task)

這部分,一共4篇。分別是:

One-Shot Imitation Learning

來自OpenAI,提出了一個元學習框架,能夠從極少數演示中學習,去完成任何給定的任務。

Importance Weighted Actor Learner Architectures

來自DeepMind,開發了一個新的分布式智能體IMPALA,不僅在單機訓練中能更有效地使用資源,而且在不犧牲數據效率和資源利用率的情況下,可以擴展到數以千計的機器上。

Multi-Task RL Using Pop Art Normalization

強化學習領域,算法大部分都是一次訓練一個任務,每個新任務都需要重新訓練智能體。學習算法通用,但每個解決方案都不通用。這篇論文提出了一種方法,優化了同時掌握多個順序決策任務時的資源分配和注意力分散問題,在57款不同的Atari遊戲中的表現超過了中等水平的人類,這也是第一次單個智能體在這一多任務領域超過人類。

Proximal Meta Policy Search

來自加州大學伯克利分校等,開發了一個新的元學習算法,克服了不良信用分配的問題和先前評估元策略梯度方面的困難。

內在獎勵/基於模型的強化學習(Intrinsic Rewards/Model-Based RL)

這部分,一共9篇。分別是:

Curiosity Driven Learning

論文作者來自OpenAI和加州大學伯克利分校,目標是弄清楚在沒有外部獎勵信號的情況下,僅僅由好奇心驅動的學習能夠使強化學習系統走多遠。這也是第一次大規模研究純粹由好奇驅動的強化學習。

Episodic Curiosity Through Reachability

論文提出了一種新的好奇方法,利用情景記憶形成獎勵,作者來自谷歌大腦、DeepMind等。

Model-Based Active Exploration

提出了一種主動探索環境的算法。 通過計劃觀察新事件,而不是僅僅對偶然遇到的新事物做出反應,最大限度地減少了全面模擬環境所需的數據。作者來自「遞歸神經網絡之父」Jürgen Schmidhuber的創業公司NNAISENSE。

Combined Reinforcement Learning via Abstract Representations

來自麥吉爾大學等,對比了基於模型和無模型的強化學習,然後討論了他們提出的CRAR方法如何將這兩種結構結合起來。

Agent Empowerment

這是一篇經典論文,來自赫特福德大學,論文討論了「授權」的概念,提出了一種關於智能體的效用函數,適用於沒有提供任何明確短期回報的情況。

Recurrent World Models Facilitate Policy Evolution

論文作者David Ha(谷歌AI)和Jürgen Schmidhuber,以無監督的方式快速訓練生成型循環神經網絡,通過壓縮的時空表徵 (Spatio-Temporal Representations) ,來為那些常見的強化學習環境建模。作者曾對這篇論文做過一個總結:「世界模型」可以讓人工智慧在「夢境」中對外部環境的未來狀態進行預測。

Learning Plannable Representations with Causal InfoGAN

來自加州大學伯克利分校等,要解決的問題是:給定初始狀態和期望目標的情況下,如何讓系統通過學習,得到一系列可以達成目標的動作。

Counterfactually Guided Policy Search

無模型的強化學習,需要大量的數據訓練。研究者可以建立學習環境模型,生成合成軌跡,並在這些軌跡上進行訓練。但這些模型簡化了真實環境,而且可能不準確。這篇論文提出了一個明確的因果/反事實模型,來生成具有更高保真度的軌跡。來自DeepMind。

The Impact of Entropy on Policy Regularization

這篇論文通過定性研究表明,在某些環境中,引入熵正則化可以使優化曲面更加平滑、連接局部最優值,從而使用更大的學習速率。並提出了一個理解底層優化場景的新工具。來自谷歌大腦。

Multi-Agent強化學習

這部分,一共3篇。分別是:

Emergence of Grounded Compositional Language in Multi-Agent RL

來自OpenAI和加州大學伯克利分校,這篇論文做了一個有趣的實驗,看一群智能體在受到激勵的情況下,能否有效地發展出某種類似語言的東西。基於這個實驗,論文的作者提出了一種多智能體的學習方法。

Intrinsic Social Motivation via Causal Influence

在這篇谷歌等機構的論文中,在多智能體強化學習中,賦予一種新的內在社會動機,試圖解決有更明確目標的多智能體協調問題。

Relational Forward Models for Multi Agent Learning

介紹了一種用於多智能體學習的模型,可以在學習環境中準確預測智能體未來的行為,來自DeepMind等。

對抗樣本(Adversarial Examples)

這部分,一共2篇。分別是:

Adversarial Reprogramming of Neural Networks

對六種ImageNet分類模型的對抗性重新編程,並調整了這些模型的用途,以執行相應任務。來自谷歌大腦。

On the Intriguing Connections of Regularization, Input Gradients and Transferability of Evasion and Poisoning Attacks

這篇論文來自卡利亞裡大學等,作者對不同的模型進行了實證分析,研究不同模型之間的對抗樣本遷移情況有何不同。

其他

這部分,一共5篇。分別是:

Test to Image Generation With AttnGAN

一篇來自微軟研究院等機構的論文,提出了一個注意力生成對抗網絡,用於文本到圖像的生成。

An intriguing failing of convolutional neural networks and the CoordConv solution

這篇來自Uber的論文,針對卷積神經網絡在空間坐標轉換問題上的缺陷,提出了一種名為CoordConv的解決方案。工作原理是使用額外的坐標通道使卷積訪問輸入坐標。

Visualizing the Loss Landscape of Neural Networks

這篇論文提出了一種可視化損失函數的新方法,解決了理解損失函數的特徵如何影響模型性能的問題。來自馬裡蘭大學學院市分校等。

Embedding Grammars

這篇論文來自楊百翰大學。將單詞嵌入的語義泛化能力和語境無關的語法結構(比如正則表達式)結合起來,創造混合語義語法。

Deep Image Reconstruction from fMRI Data

來自日本ATR計算神經科學實驗室,提出了一種新的圖像重建方法,藉助fMRI技術和深度學習算法,根據人類的大腦活動重建人類看到的圖像。

誰寫的這些總結?

這份總結的作者,是一位名為Cody Wild的小姐姐,在一家名為Sophos的安全技術公司擔任數據科學家,喜歡貓。

每半年,她會花一個月的時間,給自己讀到的經典機器學習論文寫總結,這已經是第三次了

大家可以再Twitter上面關注她。ID:@decodyng。

相關焦點

  • 【乾貨】來自小姐姐的29篇經典機器學習論文總結
    論文中哪些是關鍵?都是需要讓人去琢磨的地方。最近,有一份資源悄然流傳出來,裡面匯集了29篇經典的機器學習論文的總結,這些論文都是作者近半年來讀到的。每篇論文,作者都給出了論文的主要思路,與其他相關的研究有什麼區別,這篇論文有哪些亮點與創新點等等。而且,基本上每篇論文都附上了連結。這些論文,一共分為六個部分。
  • 2018年29篇必讀機器學習論文總結,BERT, SeqGAN等上榜
    本文作者 Cody Marie Wild,她是一位機器學習領域的數據科學家,她鍾愛語言和簡潔優美的系統,與此同時Cody Marie Wild還標榜自己是一位專業求知慾者
  • 【年終盤點】2018年29篇必讀機器學習論文總結,BERT, SeqGAN等上榜
    Cody每年都會找一個月時間集中精讀當年的重要和經典的機器學習論文,每天一篇並寫上500-1000詞的總結,比如論文主要是思路,重要的創新點以及可能的應用方向等,這對於每個研究者來說都是一份重要的論文閱讀指導,可以作為初學者如何看論文,讀論文一個非常好的借鑑範例。
  • 【乾貨薈萃】機器學習&深度學習知識資料大全集(二)(論文/教程/代碼/書籍/數據/課程等)
    介紹:適合做數據挖掘的6個經典數據集(及另外100個列表).,這本書小但精緻.  介紹:介紹個樂於總結和翻譯機器學習和計算機視覺類資料的博客,包含的內容:Hinton的CSC321課程的總結;Deep Learning綜述;Notes on CNN的總結;python的原理總結;Theano基礎知識和練習總結;CUDA原理和編程;
  • 機器學習&深度學習經典資料匯總(續)
    計算機科學研究所副所長.內部課程《機器學習入門資源不完全匯總》》介紹:好東西的乾貨真的很多《收集從2014年開始深度學習文獻》介紹:從硬體、圖像到健康、生物、大數據、生物信息再到量子計算等,Amund Tveit等維護了一個DeepLearning.University小項目:收集從2014年開始深度學習文獻,相信可以作為深度學習的起點,github《EMNLP
  • 近200篇機器學習&深度學習資料分享
    這裡,我們從兩個方面來給大家介紹,第一個方面是學習的方式,第二個方面是算法的類似性。《機器學習經典論文/survey 合集》介紹:看題目你已經知道了是什麼內容,沒錯。裡面有很多經典的機器學習論文值得仔細與反覆的閱讀。《機器學習視頻庫》介紹:視頻由加州理工學院(Caltech)出品。需要英語底子。
  • 【乾貨薈萃】機器學習&深度學習知識資料大全集(一)(論文/教程/代碼/書籍/數據/課程等)
    介紹:機器學習最基本的入門文章,適合零基礎者介紹:機器學習的算法很多。很多時候困惑人們都是,很多算法是一類算法,而有些算法又是從其他算法中延伸出來的。這裡,我們從兩個方面來給大家介紹,第一個方面是學習的方式,第二個方面是算法的類似性。介紹:看題目你已經知道了是什麼內容,沒錯。裡面有很多經典的機器學習論文值得仔細與反覆的閱讀。
  • Hinton、Bengio、何愷明等經典論文貢獻:機器學習必讀TOP100論文
    蕭簫 發自 凹非寺量子位 報導 | 公眾號 QbitAI想要入門機器學習,奈何領域的新論文太多,不知道該看哪一篇?自2017年以來,超越SOTA的方法天天有,但往往針對性非常強,不一定是顛覆機器學習圈的重要成果。
  • 小論文寫不出來,想跳樓的心都有了!
    前幾天有朋友給老Y發信息,大概的意思就是說,已經研三了,由於一直幫導師做項目沒時間寫小論文,眼看就要畢業了,小論文還沒寫(學校要求必須在核心期刊發一篇小論文
  • 機器學習吧面向ai的中文機器學習資源與分享平臺
    關於自動化機器學習的研究很早以前就有過非常系統化的論文和書籍,如果你感興趣我推薦一下孫向祥的機器學習分析,然後是西方機器學習理論,英文版的如果你沒時間翻的話國內有很多人翻譯過譯作,如果你時間多可以看coursera的opendatamlcourse如果你時間有限我推薦你這門early-resolutionmachinelearning
  • 獲取國外碩博學位論文資源?
    小編能力有限還用不到一些國外的網站,但後臺有些同學問過是否有一些國外的文獻檢索網站。
  • 用兩萬篇論文告訴你:機器學習在過去五年中發生了什麼
    數據顯示,截至 2014 年底的時候,arXiv 已經達到了一百萬篇以上的論文藏量,並且還在以每月 8000 篇的速率增長。算是目前全球最具規模的論文資料庫之一。受此啟發,碰巧我手邊正好有一份 arXiv 論文數據集,它收集了過去五年中機器學習相關的 28303 篇論文。那麼與谷歌趨勢類似,從這些論文中,我們能否看到一些機器學習領域的科研發展趨勢呢?我就此進行了詳細的數據分析,發現這個結果相當有趣,因此在這裡把它分享出來。論文總量首先我們看一下論文數量。
  • 29個學術文獻網站,寫論文不再困難
    你是否有過這樣的煩惱,寫論文的時候總找不到想要的參考文獻。最讓人鬱悶的是,有些文獻可能比自己的爸爸年齡還要大,找個文獻也變成了技術活。
  • 如何高效閱讀機器學習論文?
    看到這篇文章,我認為你準備入門機器學習算法崗,或者已經入門希望通過閱讀論文來提高自己。
  • 機器學習自學指南
    機器學習的四個層次根據能力可以將學習過程分成四個階段。這也是一個有助於我們將所有學習資源進行分類的好方法。初學階段新手階段中級階段高級階段我之所以把初學階段和新手階段區分開來,是因為我想讓那些完全初學者(對這個領域感興趣的程式設計師)在初學階段對機器學習有一個大致的認識,以便決定是否繼續深入。
  • 機器學習論文裡都有哪四大投機取巧的寫作手法?
    雷鋒網 AI 科技評論按:由於深度神經網絡的成功,機器學習的整個領域也愈發熱門、愈發茁壯。機器學習的繁榮以及 arXiv 助推下的知識和技巧快速更新當然是好事,不過這也會帶來一些煩惱,那就是隨之湧現的質量不高的論文。
  • 推薦|機器學習入門方法和資料合集
    近些天在微信群裡經常看小夥伴問到「機器學習如何入門,看哪些資料 ?」,於是乎想根據筆者學習兩年多的學習經驗,介紹下機器學習如何入門,該看哪些資料?下面我將從以下幾個方面整理機器學習入門的資源:(1)語言:機器學習中常用的語言。
  • GitHub | 機器學習&深度學習&nlp&cv從入門到深入全套資源分享
    amp;代碼deep_learning_object_detectionObjectDetectionImbalance經典CNN模型LeNet解讀機器學習進階筆記之三 | 深入理解Alexnet一文讀懂VGG網絡Inception V1,V2,V3,V4 模型總結ResNet解析一文簡述
  • 第一本機器學習寫的書面世!狂啃53000篇論文寫成
    Springer Nature和法蘭克福的歌德大學共同開發了機器學習算法Beta Write,使用機器學習集成相似的聚類分析,將海量的文獻連貫的排列起來,並創建出簡潔的文章摘要,將論文摘要和原文連結生成書籍,幫助讀者儘快獲取系列論文的重要內容,還有助於讀者進一步閱讀原始文章。我們一起來看看AI寫書水平怎麼樣:
  • 收藏 | 27個機器學習小抄(附學習資源)
    本文針對機器學習基本概念及編程和數學基礎,為你列出相應的學習資源。機器學習(Machine Learning)有很多方面,當我開始研究學習它時,我發現了各種各樣的「小抄」,它們簡明地列出了給定主題的關鍵知識點。最終,我匯集了超過 20 篇的機器學習相關的小抄,其中一些我經常會翻閱,而另一些我也獲益匪淺。