大神們最近都在讀這些論文 | 本周值得讀 #44

2021-03-02 PaperWeekly
「本周值得讀」是 PaperWeekly 的優質文章集合地。在這裡,來自 NLP、CV、DL 等方向的學習達人,各自用精煉妙語推薦當下最新的高質量文章。 


#GAN#

Triple Generative Adversarial Nets


從博弈角度來說,TripleGAN 的博弈涉及三方,判別器、生成器和分類器。其中,判別器和生成器有對抗;判別器和分類器(在訓練前期)有對抗;生成器和分類器協助作用。可以從鬥地主的角度來看,判別器是地主,生成器和分類器是農民。

它拆掉分類器,就是一個 CGAN。拆掉生成器,它就是一個半監督的 GAN。此外,我們還能從對偶學習的角度進行解讀,生成器對 p(x|y) 進行建模,而分類器則對 p(y|x) 建模。兩者在判別器的統籌下達成 p(x,y) 的一致性。這是很漂亮的對偶思想!可以說這篇文章對三方的設計非常巧妙。


論文連結:https://arxiv.org/abs/1703.02291

代碼連結:

https://github.com/zhenxuan00/triple-gan

推薦人:洪佳鵬,北京大學(PaperWeekly arXiv 打卡小組)

#問題生成#


Learning to Ask: Neural Question Generation for Reading Comprehension


本文提出一種基本 attention 的問題生成模型,模型依據輸入的句子(段落)生成相應的問題。 本文提出了兩種生成機制:基於句子、句子和段落結合。 

解碼模型:基於條件模型即:question = argmax P(y|x),其中 question 分解成詞用 LSTM 逐字生成,輸出可能存在一些稀有詞,使用 UNK 代替,模型把其替換成相應生成步驟 attention 值最高的詞。 

基於句子:使用 bidirection rnn 編碼句子,並結合 attention 生成句子表示,輸入解碼器。 

基於句子和段落:使用 bidirection rnn 編碼段落,並結合 attention 生成段落表示,拼接句子表示,輸入解碼器。 

實驗:使用 SQuAD 數據集,包含問題答案並且與問題有至少一個非停詞重合的句子和問題組成 sentence-question pair,用作訓練數據。 

實驗結果表明:本模型無論是機評還是人評效果都好於傳統模型,另外,在人評時,生成的結果有好於人編寫的問題。

* Accepted to ACL 2017

論文連結:https://arxiv.org/abs/1705.00106

代碼連結:https://github.com/xinyadu/nqg

推薦人:羅玄,北京郵電大學(PaperWeekly arXiv 打卡小組)

#文本生成#

Toward Controlled Generation of Text

本文來自邢波小組,發表於 ICML2017。針對基於 VAE 的文本生成問題,作者提出了一個將 VAE 與 attribute discriminator 結合的模型,以實現對生成文本的屬性(例如 sentiment,tense)的控制。 

該模型有三個部分,encoder,generator (即 VAE 中的 decoder),discriminator。與 vanilla VAE 不同,對於一個句子輸入 x,encoder 不僅要生成 latent variable z 的分布,還要生成 attribute c 的分布。這個 c 即是用來表示文本屬性的。於是當 generator 基於 z 和 c 來生成句子 x^hat,我們就能通過控制 c 來控制生成的句子的屬性。Discriminator 則是用來預測句子輸入 x^hat 的屬性 c^hat 的。 

模型的訓練分為兩個部分:(1)普通的 VAE 的無指導訓練可以優化 encoder 和 generator,但是這樣並沒有對 c 進行建模。為了讓 c 能夠包含我們指定的屬性信息,就需要利用 discriminator;(2)標註少量的 x,c 數據對,使用文中提到的算法就能優化 generator 和 discriminator,並讓 c 來 encode 特定的文本信息。通過上述兩個部分的訓練,這個 semi-supervised 的方法就能優化整個模型。 

實驗部分,本文使用 IMDB,Stanford Sentiment Treebank-2,TimeBank 來分別獲得無標註,有 sentiment 標註,有 tense 標註的數據。實驗方法為:人為指定了 c 後,用 generator 生成 x^hat,再用另外的分類器判斷 x^hat 的標籤與指定的 c 是否相符,即檢驗生成的文本是否符合我們希望的屬性。結果表明,該模型好於 S-VAE [2]。另外從本文中給出的生成樣例來看,模型的效果還是不錯的。 與本文類似的工作還有 conditioned VAE [3,4],VHRED [5]。


論文連結:https://arxiv.org/abs/1703.00955

[2]: https://arxiv.org/abs/1406.5298

[3]: https://arxiv.org/abs/1703.10960

[4]: https://arxiv.org/abs/1705.00316

[5]: https://arxiv.org/abs/1605.06069

推薦人:趙天雨,京都大學(PaperWeekly arXiv 打卡小組)

#詞向量#


Learned in Translation: Contextualized Word Vectors


詞向量是深度學習在 NLP 任務中應用的一個基礎部件,一個預訓練好的高質量詞向量作為其他下遊任務的初始化將會提升下遊任務的效果。本文用機器翻譯任務訓練好的 encoder 來輸出考慮了上下文信息的詞向量來代替之前常用的 word2vec 和 glove,本質上就是每個 word 在 encoder 中的 hidden vector,然後通過諸多下遊任務,比如文本分類,qa 等驗證了方法的有效性,並開放了 pytorch 實現的原始碼。

論文連結:https://arxiv.org/abs/1708.00107


代碼連結:https://github.com/salesforce/cove


官方博客解讀:

https://einstein.ai/research/learned-in-translation-contextualized-word-vectors

推薦人:大俊,PaperWeekly 首席客服

#句向量#

A Simple But Tough To Beat Baseline For Sentence Embeddings

本文來自普林斯頓大學, 隨著詞向量在 nlp 任務中的成功, 更多的人開始探索較長文本如短語, 句子,段落的向量表示, 本文提出了一種簡單但是有效的句向量算法, 只需要將句子中的向量進行加權平均, 再減去句子的矩陣的主成分即可, 但是本文算法在句子相似度, 文本蘊含, 文本分類問題都取得了更好的效果, 甚至在部分任務上, 超過了監督方法訓練的句向量,文章還進一步證明, 經典的 CBOW 算法在採用 sub-sampling 的情況下,其實質與 本文所提的算法是等價的。 只是目的不同。


論文連結:

https://openreview.net/pdf?id=SyK00v5xx

代碼連結:https://github.com/PrincetonML/SIF

推薦人:於翮,北京航空航天大學(PaperWeekly arXiv 打卡小組)

#綜述#

Recent Trends in Deep Learning Based Natural Language Processing

本文是一篇 deep learning in NLP 的綜述,詳細地介紹了 DL 在 NLP 中的模型以及應用,還對幾大經典和熱門任務做了摘要,推薦給大家。


論文連結:https://arxiv.org/abs/1708.02709

推薦人:大俊,PaperWeekly 首席客服

#Word Embedding#

Skip-Gram – Zipf + Uniform = Vector Additivity

近年來,word-embedding 模型因為在多項任務上表現出色而廣受歡迎,包括單詞類比問題 (word analogy) 和字幕生成 (caption generation)。這個模型的「副產品」是得到的向量往往具有合成性 (compositionality),即:添加兩個詞向量的結果近似於另外一個向量,這個向量往往表示一個語義複合詞。例如,man + royal = king。

這篇文章從數學推導的角度,證明了通過 Skip-Gram 模型訓練得到的 word-embeding 為何會具有合成性。 這篇文章全文使用了數學推導解釋了一個困擾學界的問題,具有很大的閱讀價值。 本文工作被 ACL2017 接收。


論文連結:http://aclweb.org/anthology/P17-1007

推薦人:

姚文林,Texas A&M University(PaperWeekly arXiv 打卡小組)

#文本分類#

#編碼方式#

Which Encoding is the Best for Text Classification in Chinese, English, Japanese and Korean?

本文工作來自 Yann LeCun 組,做了一個大型的對比實驗,實驗的目的是對文本分類任務中不同語言的編碼方式(utf-8 還是其他)和不同 level 的 embedding(byte 或 char 還是 word)在不同模型(CNN/RNN 或者其他)中組合使用的效果進行測試,得到了一系列有參考價值的結論。


論文連結:https://arxiv.org/abs/1708.02657

推薦人:大俊,PaperWeekly 首席客服

✎✎✎

「本周值得讀」欄目的內容來自 PaperWeekly arXiv 志願者小組推薦,如果您也是 arXiv 愛好者,願意一起來豐富 PaperWeekly 的推薦內容,並且培養良好的閱讀習慣,就請加入我們吧。請添加下面的微信號,並註明「志願者+學校+碩士生/博士生+研究方向」,一起來為 AI 領域學術的發展貢獻自己的一份力量。

關於PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報導人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。

相關焦點

  • 徵集|HI,你最近在讀的一本書是什麼?
    徵集|HI,你最近在讀的一本書是什麼?在4月23日世界讀書日即將到來之際,寧夏日報客戶端及寧夏日報微信公號自本日起至4月30日,面向廣大市民徵文「我最近在讀的一本書」,如果您熱愛讀書,我們期待您將您近期讀過或在讀的一本書推薦於讀者,將您的所想所感分享於我們,讓我們一同在書香中品生活、讀人生。
  • 沈向洋:讀論文的三個層次
    著名科學家Don Geman曾提到:一篇論文實際上有標題、摘要、引言、論文主體(The restof the paper)組成,論文四個部分的每一部分都需要花同樣的時間進行撰寫。所以,對論文進行快速閱讀需要著重關注論文的標題、摘要和引言,如此便能了解論文是否值得讀、能夠從論文中讀到些什麼。論文最重要,也是最難寫的部分是引言。
  • 隔日禁食,月瘦 6 斤不費勁;因為人類,狗狗既改變了樣子也改變了腦子 | 本周值得讀 · 論文推薦
    每周,「領研網」為你挑選近期重要或有趣的論文,並奉上一些優質學術媒體對論文的解讀
  • 讀論文的正確姿勢是什麼?
    第一遍閱讀大概需要5~10分鐘,在讀的過程中不用理會數學公式、原理論證等具體細節。只需要粗略地瀏覽了論文的結構,對摘要、標題、引言和結論做到「心裡有數」即可。這一遍的任務是在總體上確定:論文是否應該繼續讀下去?這篇論文的內容是否是我需要的?
  • 出國讀語言班值得嗎?
    隨著開學的時間越來越近,很多雅思還沒有考出來的同學就比較尷尬和擔憂了,部分同學開始考慮讀語言班。但對於語言班的爭議一直都有,有人說語言班很水?有人說很有必要?那麼讀語言班是否值得呢?下面我們來看下顧問老師們的意見及看法吧↓↓↓↓很多同學的第一反應可能是是不好,覺得讀語言丟臉或者浪費家裡的錢,我們就分析下讀語言是否是個可以採取的途經↓↓↓↓首先,各個國家對於直讀相應不同層次級別的課程設置了語言(大多是託福和雅思成績)的要求,尤其是排名高的學校對於入學語言要求更加苛刻
  • 「哈爾濱」怎麼讀?博士們寫論文「咬文嚼字」
    如果以為博士們寫論文僅僅為了滿足好奇心那就大錯特錯了,其實她們從事的方言研究,不但可以更好地知古通今,促進語言規範化,甚至在人機處理、刑偵等諸多領域均有建功。  A 博士們樂學善思  連「哈爾濱」怎麼讀都不放過  孫勇是哈爾濱工業大學交通學院橋梁與隧道工程系的在讀博士研究生,在課餘時間,他組建了「大話哈爾濱」網站已有七年半,關於哈爾濱的歷史、人文、風貌的一切,他都感興趣,也會一直關注和探究。
  • HI,你最近在讀的一本書是什麼?
    在4月23日世界讀書日即將到來之際,寧夏日報客戶端自本日起至4月30日,面向廣大市民徵文「我最近在讀的一本書」,如果您熱愛讀書,我們期待您將您近期讀過或在讀的一本書推薦於讀者,將您的所想所感分享於我們,讓我們一同在書香中品生活、讀人生。
  • 一點心得|英文學術論文怎麼讀
    最近一直有好多英文論文要讀,也曾反覆思考如何能讀得更快更好。前幾天特意請教了實驗室讀論文經驗豐富的搭檔。由於時間關係沒有細聊,但已足夠有啟發。只要量上去了,逐漸就會提高速度、同時摸到適合自己的方法。最忌諱的就是因為找不到理想的方法,所以拖延開始。
  • 四位理工科博士大神助陣點滴留學
    那麼一起來看看我們四位理工科博士大神們的介紹吧!香港科技大學理學院MPhil畢業生,PhD博士在讀。主要擅長研究方向為細胞生物學及生物化學。以第一作者在《NatureCommunications》(影響因子12)發表文章、以共同作者在《NucleicAcids Research》《RNA》等SCI期刊發表文章。
  • 迷茫中的在讀博士:導師酒後扇我巴掌、發表6篇SCI依然迷茫未來
    本期顯微故事講述的是一群在讀博士,他們之中:有的人懷揣夢想考博,結果卻遭遇導師言語攻擊、甚至拳腳相加,不想學術造假卻不得不面臨延遲畢業的困境;有的人雖然在讀期間發表多篇SCI論文,在別人眼中十分優秀卻依然面臨著收入少、前途迷茫的情況;還有的人為了更高的成就辭職考博,兩點一線的枯燥讀博生涯讓他加速衰老
  • 沈向洋、華剛:讀科研論文的三個層次、四個階段與十個問題
    無論是計算機視覺領域的文章還是泛計算機類的文章,一般來講,都可以歸為以下幾類:提出問題型論文、解決問題型論文、闡述和調查型論文、總結型論文。快速閱讀:如何讀標題、摘要和引言接下來我向大家介紹一些讀論文的經驗。首先是快速閱讀。
  • 為何很多人都感覺讀博壓力大?是大家都如此嗎?
    一個關於在讀博士生的調查顯示,約有80%的博士生都處於焦慮狀態,少量學生可能患有抑鬱症。之前,小西也發過不少文章討論過在讀博士生的壓力,如畢業、經濟、家庭等壓力。在看到同學畢業後月入過萬、有房有車的生活後,自己讀博補貼不足2000元/月,有點情緒波動很正常啊!去年,春節後參加個飯局,有朋友帶了親戚(在讀博士生)。對於很多人來說,自己家裡能出個博士生,肯定認為是最優秀的、值得驕傲的,多講了幾句他如何優秀。尷尬的是,該博士生直接摔掉筷子出門,留下我們一臉尷尬!
  • 院士教你:讀科研論文的三個層次、四個階段與十個問題
    計算機視覺領域的著名學者 Don Geman 曾經說,一篇文章可以分為標題、摘要、引言、論文主體四個部分,每一部分都需要花同樣的時間進行撰寫。這個說法雖然誇張但是不無道理,因為大多數讀者實際上最關注的就是文章開始的兩頁紙。對讀者而言,看完前兩頁就知道這篇文章是不是值得去讀;對 reviewer 而言,看完開頭就知道能不能拒絕這篇文章。
  • 如何平衡項目與論文之間的時間分配,在讀博士們都有什麼建議?
    前幾天在微博看到一個網友提問:導師一直讓做橫向課題,而這些課題與專業沒有任何關係,沒有時間寫論文,畢業成問題,不知道該怎麼辦?其實,在讀博期間,幫助導師做橫向課題,這應該是在所難免的,畢竟導師們也是需要掙錢的,需要養家餬口的,導師=老闆,相比大家應該都明白什麼意思吧!不妨,轉換一下心態,換位思考,把這當作是培養自我能力的一種方式。原因有三:一是挑戰自我,時間利用最大化。
  • 讀博5年,論文卻一無所獲,該怎麼辦?
    讀博期間她一篇小論文都沒有發表,沒發的原因她說起來複雜,我聽起來卻很簡單——眼高手低,本末倒置:一開始只想潛心科研做學術,一心只想發SSCI,結果戀愛大過天,博一博二兩年經歷熱戀失戀自我療愈,等到博三才想起來自己還有大小論文兩件要事待辦。半路奮起直追最終就是現在的收成:大論文過關,小論文一無所獲。
  • 讀博5年,論文0發表,何去何從?
    讀博期間她一篇小論文都沒有發表,沒發的原因她說起來複雜,我聽起來卻很簡單——眼高手低,本末倒置:一開始只想潛心科研做學術,一心只想發SSCI,結果戀愛大過天,博一博二兩年經歷熱戀失戀自我療愈,等到博三才想起來自己還有大小論文兩件要事待辦。半路奮起直追最終就是現在的收成:大論文過關,小論文一無所獲。
  • 讀博第5年,大論文過關小論文卻一無所獲,該怎麼辦?
    她的情況是:在香港某知名大學讀經濟學類的博士,熬到第五年終於博士論文通過外審,導師對她的文章也比較認可,批准參加答辯,若通過也能畢業拿到學位。現在畢業不是問題,問題是就業。而近兩年,不少地方省屬院校也開始「博士化」進程,以我所在的省屬大學為例,今年的輔導員招聘註明「博士優先」,各學院招聘的科研秘書也都要求必須是相關專業的博士。為了吸引博士來求職,這些崗位都沒有發表論文的限制。有些博士生可能會想,做高校行政都有些不情願,做中小學老師那不是更加委屈嗎?其實未必,北上廣一些頂尖中小學招聘的教師博士幾乎是標配。
  • 【大神書評】應該怎樣讀TAOCP
    一定程度上,每個人都是初學者。讀 TAOCP的前提,就是自己至少比較清楚輕重緩急,可以大概判斷哪些是根本,哪些已過時,哪些是炫技。根據每個人的需要,都有各自的具體情況,但至少心裡要有點數。如果讀書時覺得前路茫茫,完全不知道哪裡重要。那麼去正經地選一門算法基礎課才是更應該做的。     3. MIX值得用心學嗎?
  • 讀文獻都有哪些技巧
    在閱讀文獻之前,我們首先要確定這篇論文「值得讀」。什麼叫值得讀呢?就是說這篇論文應當是正確的,邏輯是通暢的,包含的結果是有價值的。讀任何一篇論文之前,我們都可以先看看摘要。數學論文的摘要裡面會陳述論文的主要結果,以及採用的主要方法。根據你的知識儲備,你可以對結果的重要性有一個粗略判斷。然後,我們可以看看這篇論文是否已經「過時」。
  • 本周值得一看的展覽(193)
    從中國的大熊貓到南非的偷獵,從有關垃圾回收到養活世界的創新農業故事,這些作品呈現了各種各樣的視覺故事,描繪自然世界和人類對環境的影響。一年一度的荷賽評選出攝影師們在過去一年裡的最佳照片,以表彰他們為視覺新聞做出的貢獻。自然類表彰那些呈現自然狀態下的植物、動物和景觀的照片。