17篇論文,詳解圖的機器學習趨勢 | NeurIPS 2019

2020-12-05 雷鋒網

雷鋒網 AI 科技評論按:本文來自德國 Fraunhofer 協會 IAIS 研究所的研究科學家 Michael Galkin,他的研究課題主要是把知識圖結合到對話 AI 中。雷鋒網 AI 科技評論全文編譯如下。

必須承認,圖的機器學習(Machine Learning on Graphs)已經成為各大AI頂會的熱門話題,NeurIPS 當然也不會例外。

在NeurIPS 2019上,僅主會場就有 100多個與圖相關的論文;另外,至少有三個workshop的主題與圖有關:

我們希望在接下來的這篇文章裡,能夠儘可能完整地討論基於圖的機器學習的研究趨勢,當然顯然不會包括所有。目錄如下:

  • Hyperbolic Graph Embeddings 雙曲圖嵌入

  • Logics & Knowledge Graph Embeddings 邏輯和知識圖嵌入

  • Markov Logic Networks Strike Back 馬爾科夫邏輯網絡捲土重來

  • Conversational AI & Graphs 對話 AI 和圖

  • Pre-training and Understanding Graph Neural Nets 圖神經網絡的預訓練和理解

  • Conclusions 結論

1、雙曲圖嵌入

傳統的嵌入算法都是在「平坦」的歐氏空間中學習嵌入向量,為了讓向量有更高的表示能力,就會選擇儘量高的維數(50維到200維),向量之間的距離也是根據歐氏幾何來計算。相比之下,雙曲算法中用到的是龐加萊(Poincare)球面和雙曲空間。在嵌入向量的使用場景裡,可以把龐加萊球面看作一個連續的樹結構,樹的根節點在球的中心,枝幹和葉子更靠近球面一些(如上面的動圖)。

這樣一來,雙曲嵌入表徵層級結構的能力就要比歐氏空間嵌入的能力高得多,同時需要的維數卻更少。不過,雙曲網絡的訓練和優化依然是相當難的。NeurIPS2018中有幾篇論文對雙曲神經網絡的構建做了深入的理論分析,今年在NeurIPS2019上我們終於看到了雙曲幾何和圖結構結合的應用。    

  

論文 1:Hyperbolic Graph Convolutional Neural Networks

雙曲圖卷積神經網絡

論文地址:https://papers.nips.cc/paper/8733-hyperbolic-graph-convolutional-neural-networks.pdf

開源地址:https://github.com/HazyResearch/hgcn


論文 2:Hyperbolic Graph Neural Networks

雙曲圖神經網絡

論文地址:https://papers.nips.cc/paper/9033-hyperbolic-graph-neural-networks.pdf

開源:https://github.com/facebookresearch/hgnn

論文 1 和論文 2 兩者的思想是相似的,都希望把雙曲空間的好處和圖神經網絡的表達能力結合起來,只不過具體的模型設計有所區別。前一篇論文主要研究了節點分類和連接預測任務,相比於歐氏空間中的方法大大降低了錯誤率,在Gromov雙曲性分數較低(圖和樹結構的相似度)的數據集上表現尤其好。後一篇論文關注的重點是圖分類任務。

論文 3:Multi-relational Poincaré Graph Embeddings

多關係龐加萊圖嵌入

論文地址:https://papers.nips.cc/paper/8696-multi-relational-poincare-graph-embeddings.pdf

論文 3 在它們的多關係龐加萊模型(MuRP)的知識圖嵌入中用上了雙曲幾何。直覺上,正確的三元組客體應該落在主體附近的某個超球面中,相關的這些決策邊界是由學習到的參數描繪的。作者用來優化模型的是黎曼幾何SGD(大量數學警告)。在兩個標準的評測數據集 WN18RR 和 FB15k-237 上,MuRP 的效果比對比模型更好,因為它「更具備雙曲幾何」而且也更適用於樹結構(如果能像上面的論文一樣計算一下Gromov雙曲性分數就更好了)。更有趣的是,MuRP只需要40維,得到的準確率就和歐氏空間模型用100維甚至200維向量的結果差不多!明顯可以看到,雙曲空間的模型可以節省空間維度和存儲容量,同時還不需要有任何精度的犧牲。

我們還有一個雙曲知識圖嵌入比賽,獲獎方法名為 RotationH,論文見 https://grlearning.github.io/papers/101.pdf  ,其實和上面的雙曲圖卷積神經網絡論文的作者是同一個人。這個模型使用了雙曲空間的旋轉(思路上和RotatE https://arxiv.org/abs/1902.10197 模型相似,不過RotatE是複數空間的模型),也使用了可學習的曲率。RotationH 在WN18RR上刷新了最好成績,而且在低維的設定下也有很好的表現,比如,32維的RotationH就能得到和500維RotatE差不多的表現。    

         

如果你碰巧在大學學習了sinh(雙曲正弦)、龐加萊球面、洛倫茲雙曲面之類的高等幾何知識但是從來都不知道在哪能用上的話,你的機會來了,做雙曲幾何+圖神經網絡吧。 

2、邏輯和知識圖嵌入

如果你平時就有關注arXiv或者AI會議論文的話,你肯定已經發現,每年都會有一些越來越複雜的知識圖嵌入模型,每次都會把最佳表現的記錄刷新那麼一點點。那麼,知識圖的表達能力有沒有理論上限呢,或者有沒有人研究過模型本身能對哪些建模、對哪些不能建模呢?看到這篇文章的你可太幸運了,下面這些答案送給你。

             

交換群:弱雞;阿貝爾群:大佬

論文4:Group Representation Theory for Knowledge Graph Embedding

連結:https://grlearning.github.io/papers/15.pdf

論文 4 從群論的角度來研究KG嵌入。結果表明,在復空間中可以對阿貝爾群進行建模,且證明了RotatE(在復空間中進行旋轉)可以表示任何有限阿貝爾群。

有沒有被「群論」、「阿貝爾群」這些數學名詞嚇到?不過沒關係,這篇文章裡有對相關的群論知識做簡要介紹。不過這個工作在如何將這個工作拓展到1-N或N-N的關係上,還有很大的gap。作者提出一個假設,即或許我們可以用四元數域H來代替複數空間C……

論文5:Quaternion Knowledge Graph Embeddings

連結:https://papers.nips.cc/paper/8541-quaternion-knowledge-graph-embeddings.pdf

……在這次NeurIPS' 19上,這個問題被 Zhang et al. 解決了。他們提出了QuatE,一個四元數KG嵌入模型。什麼是四元數?這個需要說清楚。簡單來說,複數有一個實部,一個虛部,例如a+ib;而四元數,有三個虛部,例如 a+ib+jc+kd。相比複數會多出兩個自由度,且在計算上更為穩定。QuatE將關係建模為4維空間(hypercomplex space)上的旋轉,從而將complEx 和 RotatE統一起來。在RotatE中,你有一個旋轉平面;而在QuatE中,你會有兩個。此外,對稱、反對稱和逆的功能都保留了下來。與RotatE相比,QuatE在 FB15k-237上訓練所需的自由參數減少了 80%。

我上面並沒有從群的角度來分析這篇文章,不過若感興趣,你可以嘗試去讀原文: 

四元數域的旋轉

論文 6:Quantum Embedding of Knowledge for Reasoning

連結:https://papers.nips.cc/paper/8797-quantum-embedding-of-knowledge-for-reasoning.pdf

論文 6 提出了 Embed2Reason(E2R)的模型,這是一種受量子邏輯啟發的量子KG嵌入方法。該方法可以嵌入類(概念)、關係和實例。

不要激動,這裡面沒有量子計算。量子邏輯理論(QL)最初是由伯克霍夫和馮諾依曼於1936年提出,用於描述亞原子過程。E2R的作者把它借用過來保存KG的邏輯結構。在QL中(因此也是E2R中),所有一元、二元以及複合謂詞實際上都是某些複雜向量空間的子空間,因此,實體及其按某種關係的組合都落在了特定的子空間內。本來,分布定律a AND(b OR c)=(a AND b)OR(a AND c)在QL中是不起作用的。但作者用了一個巧妙的技巧繞開了這個問題。

作者在論文中還介紹了如何使用QL對來自描述邏輯(DL)的術語(例如包含、否定和量詞)進行建模!實驗結果非常有趣:在FB15K上,E2R產生的Hits @ 1高達96.4%(因此H@10也能達到);不過在WN18上效果不佳。事實證明,E2R會將正確的事實排在首位或排在top10以下,這就是為什麼在所有實驗中H @ 1等於H @ 10的原因。

補充一點,作者使用LUBM作為演繹推理的基準,該演繹推理包含了具有類及其層次結構的本體。實際上,這也是我關注的焦點之一,因為標準基準數據集FB15K(-237)和WN18(RR)僅包含實例和關係,而沒有任何類歸因。顯然,大型知識圖譜具有數千種類型,處理該信息可以潛在地改善連結預測和推理性能。我還是很高興看到有越來越多的方法(如E2R)提倡將符號信息包含在嵌入中。  

     

論文 7:Logical Expressiveness of Graph Neural Networks

連結:https://grlearning.github.io/papers/92.pdf

讓我們繼續來考察圖神經網絡的邏輯表達。論文 7 中對哪些GNN架構能夠捕獲哪個邏輯級別進行了大量的研究。目前為止,這個研究還僅限於一階邏輯的兩變量片段FOC_2,因為FOC_2連接到用於檢查圖同構的Weisfeiler-Lehman(WL)測試上。

作者證明,聚合組合神經網絡(AC-GNN)的表達方式對應於描述邏輯ALCQ,它是FOC_2的子集。作者還進一步證明,如果我們添加一個獨處成分,將GNN轉換為聚合組合讀出GNN(ACR-GNN),則FOC_2中的每個公式都可以由ACR-GNN分類器捕獲。這個工作怎麼說呢?簡直是不能再棒了!

論文 8:Embedding Symbolic Knowledge into Deep Networks

連結:https://papers.nips.cc/paper/8676-embedding-symbolic-knowledge-into-deep-networks.pdf

論文 8 提出了模型LENSR,這是一個具有語義正則化的邏輯嵌入網絡,它可以通過圖卷積網(GCN)將邏輯規則嵌入到d-DNNF(決策確定性否定範式)當中。在這篇文章中,作者專注於命題邏輯(與上述論文中更具表現力的描述邏輯相反),並且表明將AND和OR的兩個正則化組件添加到損失函數就足夠了,而不用嵌入此類規則。這個框架可以應用在視覺關係預測任務中,當給定一張圖片,你需要去預測兩個objects之間的正確關係。在這篇文章中,Top-5的準確率直接將原有84.3%的SOTA提升到92.77%。   

3、馬爾科夫邏輯網絡捲土重來

馬爾科夫邏輯網絡(Markov Logic Network)的目標是把一階邏輯規則和概率圖模型結合起來。然而,直接使用馬爾科夫邏輯網絡不僅有拓展性問題,推理過程的計算複雜度也過高。近幾年來,用神經網絡改進馬爾科夫邏輯網絡的做法越來越多,今年我們能看到很多有潛力的網絡架構,它們把符號規則和概率模型結合到了一起。

論文9:Probabilistic Logic Neural Networks for Reasoning

連結:https://papers.nips.cc/paper/8987-probabilistic-logic-neural-networks-for-reasoning.pdf

論文 9 提出了 pLogicNet,這個模型是用來做知識圖推理的,而且知識圖嵌入和邏輯規則相結合。模型通過變差EM算法訓練(實際上,這幾年用EM做訓練&模型優化的論文也有增加的趨勢,這事可以之後單獨開一篇文章細說)。論文的重點是,用一個馬爾科夫邏輯網絡定義知識圖中的三元組上的聯合分布(當然了,這種做法要對未觀察到的三元組做一些限制,因為枚舉出所有實體和關係上的所有三元組是做不到的),並給邏輯規則設定一個權重;你可以再自己選擇一個預訓練知識圖嵌入(可以選TransE或者ComplEx,實際上隨便選一個都行)。在推理步驟中只能怪,模型會根據規則和知識圖嵌入找到缺失的三元組,然後在學習步驟中,規則的權重會根據已見到的、已推理的三元組進行更新。pLogicNet 在標準的連接預測測試中展現出了強有力的表現。我很好奇如果你在模型裡選用了 GNN 之類的很厲害的知識圖嵌入會發生什麼。

論文 10:Neural Markov Logic Networks

連結:https://kr2ml.github.io/2019/papers/KR2ML_2019_paper_18.pdf

論文 10 介紹了一個神經馬爾科夫邏輯網絡的超類,它不需要顯式的一階邏輯規則,但它帶有一個神經勢能函數,可以在向量空間中編碼固有的規則。作者還用最大最小熵方法來優化模型,這招很聰明(但是很少見到有人用)。但缺點就是拓展性不好,作者只在很小的數據集上做了實驗,然後他表示後續研究要解決的一大挑戰就是拓展性問題。       

論文11:Can Graph Neural Networks Help Logic Reasoning?

連結:https://kr2ml.github.io/2019/papers/KR2ML_2019_paper_22.pdf

最後,論文 11 研究了GNN和馬爾科夫邏輯網絡在邏輯推理、概率推理方面的表現孰強孰弱。作者們的分析表明,原始的GNN嵌入就有能力編碼知識圖中的隱含信息,但是無法建模謂詞之間的依賴關係,也就是無法處理馬爾科夫邏輯網絡的後向參數化。為了解決這個問題,作者們設計了ExpressGNN架構,其中有額外的幾層可調節的嵌入,作用是對知識圖中的實體做層次化的編碼。 

4、對話 AI 和圖

好了,硬核的機器學習算法講得差不多了,下面我們看點輕鬆的,比如NLP應用。和NeurIPS正會一起開的workshop裡有很多有趣的對話AI+圖的論文。

論文12:Multi-domain Dialogue State Tracking as Dynamic Knowledge Graph Enhanced Question Answering

連結:http://alborz-geramifard.com/workshops/neurips19-Conversational-AI/Papers/51.pdf

這篇論文提出了一個通過問答追蹤對話進度(Dialogue State Tracking via Question Answering (DSTQA))的模型,用來在MultiWOZ環境中實現任務導向的對話系統,更具體地,就是通過對話幫助用戶完成某個任務,任務一共分為5個大類、30個模版和超過4500個值。

它基於的是問答(Question Answering )這個大的框架,系統問的每個問題都要先有一個預設模版和一組預設的值,用戶通過回答問題確認或者更改模版中的預設值。有個相關的假說提出,同一段對話中的多個模版、多組值之間並不是完全獨立的,比如,你剛剛訂好五星級酒店的房間,然後你緊接著問附近有什麼餐館,那很有可能你想找的餐館也是中高檔的。論文中設計的整個架構流程很繁瑣,我們就只講講他們的核心創新點吧:

  • 首先,作者們把對話狀態建模為一個根據對話內容逐漸擴充的動態知識圖。圖中的節點由大類、模版和值構成,建立節點之間關係的過程也利用了上面那個假說,就是因為不同的模版之間有一些值可以是相同的、部分重疊或者是有關聯的。

  • 其次,用一個圖注意力網絡(Graph Attention Net)學習為圖中的節點分配權重,網絡的輸出也會被送入一個門機制,用來決定要在問題文本中表現出圖的多大的一部分。

  • 作者們也使用了角色嵌入,這樣模型可以由系統的話語和用戶的話語共同訓練

  • 最後,作者們同時使用了CharCNN和ELMO嵌入來做對話文本內容的編碼

DSTQA 在 MultiWOZ 2.0 和 MultiWOZ 2.0 上都刷新了最好成績,在 WOZ 2.0 上也和當前的最好方法不相上下。根據作者們的誤差分析,主要的丟分點來自於真實值的標註有一些不準確的 —— 大規模眾包數據集中就是經常會發生這種情況,沒什麼辦法,攤手

論文 13:Neural Assistant: Joint Action Prediction, Response Generation, and Latent Knowledge Reasoning

連結:http://alborz-geramifard.com/workshops/neurips19-Conversational-AI/Papers/32.pdf

論文13 介紹了一個神經網絡助理模型,這個對話系統架構不僅能考慮到對話歷史,也能利用到知識庫中的事實信息。系統架構可以看作是Transformer架構的拓展,它會編碼對話歷史中的文本;知識庫中的內容是簡單的單詞三元組比如(餐館A,價格,便宜)(沒有 Wikidata 那種花哨的知識圖模式),這些三元組也會被Transformer編碼。最後,解碼器會同時處理歷史文本編碼和知識圖編碼,用來生成輸出語句,以及決定是否要進行下一步動作。

之前的論文中有很多人在所有的知識庫三元組上計算softmax(只要知識庫稍微大一點,這種做法就非常低效),這篇論文就沒這麼做,他們根據知識庫中的實體是否在真實值回答中出現的情況做弱監督學習。他們的架構在 MultiWOZ 設置下比原本的Transformer架構得到更好的表現,預測動作以及實體出現的F1分數超過90%。不過,他們的進一步分析顯示出,知識庫中的條目超過一萬條之後準確率就會開始快速下降。所以,嗯,如果你有心思把整個Wikidata的70億條三元組都搬過來的話,目前還是不行的。  

論文 14:A Comprehensive Exploration on WikiSQL with Table-Aware Word Contextualization

連結:https://kr2ml.github.io/2019/papers/KR2ML_2019_paper_8.pdf

當你設計面向任務的系統的時候,往往有很多內容是無法長期留在內存裡的,你需要把它們存在外部存儲中,然後需要的時候去檢索。如果是圖數據,你可以用SPARQL或者Cypher建立圖資料庫來操作;或者用經典的SQL資料庫也行。對於後一種情況,最近出現了很多新任務(https://medium.com/@mgalkin/knowledge-graphs-nlp-emnlp-2019-part-i-e4e69fd7957c),其中WikiSQL 是第一批引起了學術研究人員興趣的。

如今,只經過了不到兩年的時間,我們就已經可以說這個數據集已經基本被解決了,基於神經網絡的方法也獲得了超過人類的表現。這篇論文中提出了語義解析模型 SQLova ,它通過BERT編碼問題和表頭、用基於注意力的編碼器生成SQL查詢(比如 SELECT 命令、WHERE 條件、聚合函數等等)  、然後還能對生成的查詢語句進行排序和評價。

作者們在論文中指出,不使用語義解析、只使用BERT的暴力編碼的話,效果要差得多,所以語言模型還是不能亂用。模型的測試準確率達到了90%(順便說一句,還有一個叫  X-SQL 的模型拿到了接近92%的準確率,https://arxiv.org/pdf/1908.08113.pdf  ),而人類的準確率只有88%;根據錯誤分析來看,系統表現的最大瓶頸基本就是數據標註錯誤了(和上面那個MulitWOZ的例子類似)。

除此之外我還有幾篇NLP相關的論文想推薦給大家:

  • Relational Graph Representation Learning for Open-Domain Question Answering

  • Populating Web Scale Knowledge Graphs using Distantly Supervised Relation Extraction and Validation

  • Incorporating rules into end-to-end dialog systems

5、圖神經網絡的預訓練和理解

在這一節,我會介紹一些從更通用的角度研究GNN的論文,包括一些研究GNN模型的可解釋性的論文。

論文 15:Pre-training Graph Neural Networks

連結:https://arxiv.org/abs/1905.12265

這篇論文挺火的,這是提出並解釋預訓練圖神經網絡框架的首批論文之一。我們都很熟悉預訓練語言模型了,就是先在海量文本上預訓練一個語言模型,然後在某個具體任務上做精細調節。從思路上來說,預訓練圖神經網絡和預訓練語言模型很像,問題重點在於這種做法在圖上能不能行得通。簡單的答案就是:可以!不過使用它的時候還是要小心謹慎。

對於用預訓練模型在節點級別(比如節點分類)和圖級別(比如圖分類)捕捉結構和領域知識,作者們都在論文中提出了有價值的見解,那就是,對於在節點級別學習結構屬性來說,內容預測任務的重點是在負採樣的幫助下根據嵌入預測一個節點周邊的節點(仿佛很像word2vec的訓練對不對),其中通過掩蔽的方式,隨機遮住一些節點/邊的屬性,然後讓網絡預測它們。

作者們也說明了為什麼聚合-合併-讀出的GNN結構(Aggregate-Combine-Readout GNN)的網絡更適合這類任務,是因為它們支持用一個置換不變的池化函數獲取一個圖的全部表徵。實驗表明,只使用圖級別的有監督預訓練時,向下遊任務遷移會造成表現下降,所以需要同時結合節點級別和圖級別的表徵。把特徵這樣組合之後能在40種不同的預測任務中帶來6%到11%的ROC-AUC提升。

所以,這代表圖上的遷移學習時代已經正式來到我們面前了嗎?會有更多優秀的研究人員為預訓練GNN模型編寫優秀的庫,讓大家都可以更方便地使用預訓練GNN嗎?

論文 16:Graph Transformer Networks

連結:https://papers.nips.cc/paper/9367-graph-transformer-networks.pdf

這篇論文為異質圖設計了圖Transformer(Graph Transformer)架構。異質圖是指,圖中含有多種類型的節點和邊。圖Transformer網絡(GTN)中通過1x1卷積來獲取元路徑(邊組成的鏈)的表徵。接著,他們思路的關鍵在於,在此基礎上再生成一系列任意長度的新的元路徑(元-元路徑?),長度可以由Transformer層的數量指定,這些元路徑理論上可以為下遊任務編碼更多有有價值的信號。作者們的實驗中,GTN憑藉和圖注意力網絡(Graph Attention Nets)相近的參數數量刷新了節點任務分類的最好成績。

論文 17:GNNExplainer: Generating Explanations for Graph Neural Networks

連結:https://papers.nips.cc/paper/9123-gnnexplainer-generating-explanations-for-graph-neural-networks.pdf

這裡要介紹的最後一篇論文瞄準的是「圖神經網絡的可解釋性」這個重要任務,論文中提出了用來解釋圖神經網絡的輸出的GNN Explainer,這是一個模型無關的框架,它能為任意任務上的、任意一個基於圖的模型的預測結果做出解釋。比如說,你在用圖注意力網絡做節點分類/圖分類任務,然後你想看看你的問題的可解釋的結果,那你直接用GNN Explainer就好了。

他們的設計思路是,GNN Explainer會讓模型預測和結合圖、節點特徵形成的子圖結構之間的共同信息最大化(當然了,生成子圖的過程需要一些優化技巧,畢竟檢測所有可能的子圖是辦不到的)。這個框架給出的解釋的形式是,它會返回一個帶有最重要的通路和特徵的子圖,這就很容易被人類解讀了。論文裡有一些很清晰的示例圖(如下方)。很棒的論文,鼓掌!

結論

在圖上做機器學習是完全可行的!而且不管是CV、NLP、強化學習都能做。按照NeurIPS這樣的規模,我們可以期待看到更多有趣的評審意見和給人啟發的見解。順便,我覺得有不少NeurIPS的workshop論文都可以在明年的ICLR2020再次看到。

via https://medium.com/@mgalkin/machine-learning-on-graphs-neurips-2019-875eecd41069,雷鋒網(公眾號:雷鋒網) AI 科技評論編譯

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • NeurIPS 2019 程序委員會主席發聲明:19 篇論文因一稿多投被拒收!
    本文是 NeurIPS 2019 程序委員會主席對近期作者反饋階段工作的幾點說明,主要介紹了審稿進度以及本屆 NeurIPS 為防止一稿多投現象做所的努力,並宣布了提交至 NeurIPS 的論文中有 19 篇由於存在一稿多投的問題將被拒收的決定。
  • 百度多篇論文入選NeurIPS 2020,機器學習領先算法、理論「強輸出」
    此次大會中,百度研究院參會並發表了多篇高質量論文,論文聚焦大規模稀疏學習的加速求解、新發現物種數量預測、隨機非凸優化、高維數據判別分析等問題,分別提出了創新算法及理論,突破原有算法在實際應用中泛化效果差、優化效率低等限制,有效提升AI技術在自然生態學、統計學習理論等領域中的應用價值,同時也彰顯出百度在人工智慧與機器學習領域的持續技術創新力。
  • 深度圖高斯過程 | NeurIPS 2020論文分享第一期
    高斯過程是概率機器學習中的核心方法,憑藉其良好的解析性質和出色的不確定性建模能力,被廣泛應用於各類機器學習問題。採用深度學習層次化建模範式的「深度高斯過程」則進一步增強了其建模能力,拓寬了其應用範圍。然而,絕大多數現有方法不能很好的擴展到圖結構數據。
  • 嚴禁一稿多投:NeurIPS 2019剛剛斃掉了19篇論文
    機器之心報導參與:澤南、杜偉上星期,人工智慧頂級學術會議 NeurIPS 2019 的論文評審結果剛剛放出。昨天,本屆 NeurIPS 程序主席、谷歌大腦研究員 Hugo Larochelle 等人發出了一篇公告,宣布大會剛剛因為一稿多投拒掉了 19 篇論文。
  • GPT-3獲NeurIPS最佳論文獎,華人學者獲經典論文獎
    包括GPT-3在內的三篇獲得最佳論文獎,一篇2011年論文獲得時間檢驗獎。>(Test of Time Award,也稱經典論文獎),以表彰這篇論文對AI學界產生的持久而深遠的影響。這篇論文主要提出了一種異步SGD算法,讓處理器平等地訪問共享內存,並且能夠隨意更新內存的各個部分,從而實現了幾乎線性的加速。
  • 火爆的圖機器學習,2020年將有哪些研究趨勢?
    來源:雷鋒網原標題:火爆的圖機器學習,2020年將有哪些研究趨勢?2019年絕對是圖機器學習(GML)大火的一年,凡是學術會議,圖神經網絡的會場總會爆滿。 圖機器學習的研究之所以在2019年突然變得火熱,原因在於,在前幾年儘管深度學習在歐氏空間中的數據方面取得了巨大的成功,但在許多實際的應用場景中的數據往往是從非歐式空間生成的。
  • 西電陳渤團隊兩篇論文被頂級會議錄用
    第34屆神經信息處理系統大會(Neural Information Processing Systems, NeurIPS,https://neurips.cc/)將於12月06日—12月12日,通過線上舉行。
  • 機器學習如何做好分布外異常檢測?谷歌這篇 NeurIPS 2019 論文提出...
    谷歌在 NeurIPS 2019 論文中提出並發布了針對基因組序列 OOD 檢測的現實基準數據集,進而提出一種基於似然比的解決方案,可顯著提高 OOD 檢測的準確性。AI 科技評論將谷歌對該方法的官方解讀編譯如下。深度學習科學家要成功部署機器學習系統,需要系統能夠區分出異常數據或與訓練中使用的數據有顯著差異的數據。
  • 大數據趨勢預測靠譜嗎?德國研究者用1.7萬篇arXiv論文預測機器學習...
    圖 1:cs.CL 領域 top-100 論文的任務分布情況。我們可以從中觀察到自然語言生成任務是其中的主導任務。圖 2:cs.LG 領域 top-100 論文的方法分布情況。我們可以從中看到強化學習和對抗學習是這些論文中使用最廣泛的方法。圖 3:cs.CL 領域 top-100 論文的目標分布情況。我們可以從中看到超半數研究的目標是提高準確率。
  • 算法最熱arXiv論文接收率高一倍,NeurIPS2019最全報告+視頻+筆記
    其中,共有 85 位作者提交了至少10 篇論文。這些多產提交者的平均錄取率為 24.7%,略高於平均錄取率 21.6%。投稿熱門關鍵詞:算法、深度學習、應用今年及去年各領域投稿、錄取比例如下圖所示(按每個領域中提交論文的數量進行排序)。
  • 投稿NeurIPS無門路?NeurIPS 2019讓圖靈獎得主做你的導師
    人工智慧年度最大盛會NeurIPS2019 即將在 12 月 8 日- 14 日在加拿大溫哥華舉行,今年大會除了收到 6743 篇論文投稿創歷史記錄外,還決定為「新人」提供一項福利,推出一個全新的特別機器學習研討會——New In ML 2019,作為NeurIPS大會的官方環節之一。
  • 阿里巴巴18篇論文入選機器學習頂會KDD 2020
    5月25日,國際機器學習頂會KDD 2020公布了論文入選結果,阿里巴巴18篇論文入選,是近幾年KDD會議論文入選數量最多的科技公司之一。據介紹,18篇論文中,涵蓋阿里巴巴在認知智能、曝光偏差、圖表示學習等前沿AI領域的研究突破。
  • 國內接收論文佔四成圖神經網絡大火,ACM CIKM2019最佳論文出爐
    國內學者佔據四成今年的 CIKM 收到 1676 篇提交論文(其中包括 1031 篇長論文和 471 篇短論文),經過同行評審,共有 202 篇長論文、107 篇短論文和 37 篇應用研究論文被接收。總接受率約為 21%。
  • 西電本科博士聯手在人工智慧頂級會議發表論文
    NeurIPS會議每年舉辦一次,是國際公認的機器學習和人工智慧研究領域頂尖會議,也是中國計算機學會 (CCF) A類top會議,代表著當今機器學習人工智慧領域的最高水平,受到來自學術界和工業界的共同關注。
  • 從ISSCC 2021論文看未來技術發展趨勢
    ISSCC2021共錄用202篇論文,錄用率達33.6%。許雲翔博士進一步指出,ISSCC 2021論文的12個技術分類中,論文數量比較多的是高速網絡、5G、Wi-Fi、影像應用和機器學習。14REETC-電子工程專輯技術發展趨勢 北京大學黃茹院士、清華大學劉勇攀教授、復旦大學的徐鴻濤教授、澳門大學羅文基教授、復旦大學徐佳偉教授、清華大學張沕琳教授、澳門大學路延教授、清華大學鄧偉教授分別就存儲器、機器學習、無線傳輸、數據轉換器、模擬技術、前瞻技術、電源管理、射頻等八大技術分類的論文和趨勢進行了介紹。
  • 全面回顧2020年圖機器學習進展,12位大神論道、寄望2021年大爆發!
    3關係結構發現圖 2:GNN 使我們可以學習用於解釋多粒子系統(左圖)的狀態轉移圖(右圖)。Thomas Kipf,谷歌大腦研究科學家,圖卷積網絡(GCN)作者。自從最近基於 GNN 的模型被廣泛採用以來,圖機器學習社區中一個值得注意的趨勢是:將計算結構與數據結構分離開來。
  • NeurIPS圖表示學習研討會錄取論文揭曉:92篇論文看懂圖表示學習
    10 月 18 日,2019 中關村論壇平行論壇 ——AI WORLD 2019 世界人工智慧峰會在北京啟幕。新智元楊靜、科大訊飛胡鬱、微軟王永東、華為王成錄、英特爾宋繼強、曠視及智源學者孫劍、滴滴葉傑平、AWS 張崢、依圖顏水成、地平線黃暢、autowise.ai 黃超等重磅嘉賓中關村論劍,重啟充滿創新活力的 AI 未來。
  • 為什麼要進行圖學習?談一談逆勢而上的圖神經網絡
    NeurIPS 2020 | 圖機器學習NeurIPS'20: 80多篇與圖相關的論文整理與小結 (更新中)圖神經網絡說難不難,說容易不容易。如果你還沒有入門,不用著急,站在他人的肩膀上,你會看的輕鬆一點,歡迎參考從下面的學習路線1 Tutorial教程合集(入門必讀)為什麼要進行圖嵌入表示?
  • 機器學習和深度學習引用量最高的20篇論文(2014-2017)
    Pham機器之心編譯參與:邵明、黃小天機器學習和深度學習的研究進展正深刻變革著人類的技術,本文列出了自 2014 年以來這兩個領域發表的最重要(被引用次數最多)的 20 篇科學論文,以饗讀者機器學習,尤其是其子領域深度學習,在近些年來取得了許多驚人的進展。重要的研究論文可能帶來使全球數十億人受益的技術突破。這一領域的研究目前發展非常快,為了幫助你了解進展狀況,我們列出了自 2014 年以來最重要的 20 篇科學論文。
  • NeurIPS 2019聯邦學習國際研討會引關注,聯邦學習技術應用再拓邊界
    2019年12月8日-14日,第33屆國際人工智慧頂級會議NeurIPS 2019(Thirty-third Conference on Neural Information Processing Systems)於加拿大溫哥華舉行,投稿論文數量(6743篇)、參會人數(1.3萬人)均創下歷史新高。