今日論文|概念感知:將常識嵌入預訓練語言模型&上下文線索推斷視頻物體因果關係&新條件熵LiDAR數據壓縮&中文分詞綜述&MORE

2021-02-13 AI日讀
11月16日至17日人工智慧領域新增論文614篇,AI日讀精選其中138篇推薦給大家。這些論文主要來自ACCV,ACL,BigData,COLING,Computational Intelligence,ECCV,EMNLP,EUSIPCO,ICAART,ICASSP,ICLR,ICML,ICPR,ICRA,IJCAI,IJDAR,IJRR,JAIR,NeurIPS,Pattern Recognition,TACL,TOIS,VISAPP,WACV,WSDM等會議與期刊。其中包含計算機視覺論文27篇[1-27],自然語言處理論文23篇[28-50],方法論論文21篇[63-83],神經網絡原理論文9篇[84-92],語音技術論文6篇[105-110],知識圖譜論文4篇[111-114],強化學習論文6篇[115-120],推薦系統論文2篇[121-122],醫療與健康論文8篇[123-130],應用論文3篇[131-133],點擊文末閱讀原文即可下載。


首先來看計算機視覺論文:
- 視覺理解中大多數現有技術僅依賴於分析「什麼」(例如事件識別)和「何處」(例如事件定位),這在某些情況下無法描述事件之間的正確上下文關係或導致不正確的基礎視覺注意力。人類的行動之所以被定義為「人的行為」而與機器根本不同,部分原因是人們本能尋求任何關聯背後的因果關係,比如說事件Y是事件X的直接結果而發生的。為此,[4]提出iPerceive框架,通過使用上下文線索建立常識知識庫來推斷視頻中對象之間的因果關係,從而理解視頻中的事件之間「為什麼」。研究者使用密集視頻字幕(Dense Video Captioning,DVC)和視頻問答(VideoQA)任務演示了所提方法的有效性。此外,儘管DVC和VideoQA中的大多數先前工作僅依賴於視覺信息,但是其他方式(例如音頻和語音)對於人類觀察者對環境的感知至關重要。研究者將DVC和VideoQA任務表述為利用多種模式的機器翻譯問題。通過分別評估ActivityNet字幕和TVQA數據集上的iPerceive DVC和iPerceive VideoQA性能,證明所提方法進一步提高了技術水平。

- 注視(gaze)是人類注意力的基本表現。近年來,一系列工作在注視估計中取得很高準確性。然而,人際差異限制了與主體無關的注視估計誤差的減少。[6]提出一種無監督領域自適應注視估計方法,以消除人際差異的影響。在域自適應中,研究者設計了具有預測一致性的嵌入表示,以確保不同域中凝視方向之間的線性關係在凝視空間和嵌入空間上保持一致。具體而言,研究者針對每個目標域預測採用源注視以在注視空間中形成局部線性表示。然後,將相同的線性組合應用於嵌入空間,以生成目標域樣本的假設嵌入,從而保持預測一致性。通過近似估計目標域樣本的預測和假設嵌入,可以減少目標域和源域之間的偏差。在所提策略的指導下,研究者設計了域自適應注視估計網絡(Domain Adaptation Gaze Estimation Network,DAGEN),該網絡可以學習嵌入預測一致性,並在MPIIGaze和EYEDIAP數據集上均獲得最新的結果。

- 這是一項由Uber滑鐵盧大學多倫多大學共同進行的研究。[1]提出一種新壓縮算法,用於減少LiDAR傳感器數據流的存儲。所提模型利用多個LiDAR掃描之間的時空關係來減少幾何形狀和強度值的比特率。為實現該目標,研究者提出一種新條件熵模型,該模型通過考慮粗略的幾何圖形以及先前掃描的幾何圖形和強度信息來對八叉樹符號(octree symbols)的概率進行建模。隨後,研究者使用獲悉的概率將完整數據流編碼為緊湊的數據流。實驗表明,與現有最新LiDAR壓縮方法相比,所提方法顯著降低了聯結的幾何形狀和強度比特率,在UrbanCity和SemanticKITTI數據集上分別降低7%-17%和15%-35%。

- 近年來,機器學習和人工神經網絡等深度學習方法在解決自動拼圖解謎問題上得到了廣泛的應用。事實上,這些方法能夠從圖像中提取高級表徵,然後可以通過訓練將匹配的圖像碎片與非匹配的圖像碎片分開。這些應用與從部分恢復的碎片中重建古文獻的問題有很多相似之處。[3]提出了一種基於圖神經網絡的解決方案,利用對偶補丁信息為代表對偶之間空間關係的邊分配標籤。該網絡將源和目標補丁之間的關係分類為上、下、左、右或無這五個類別。通過對所有邊進行分類,文章提出的模型能夠輸出一個重建圖。文章表明,其提出的模型不僅能夠為邊提供正確的分類,而且能夠從一組補丁中生成部分或完整的重建圖。

- 深度神經網絡方法在目標識別(CNN)和檢測(Faster-RCNN)任務中表現出了高性能,但實驗表明,這種架構容易受到對抗攻擊(FFF, UAP)的影響,其中人眼幾乎察覺不到的低振幅擾動會導致模型性能的急劇下降。[5]提出了一種新的上下文模塊Transformer-Encoder Detector Module,可以應用於對象檢測器,來改進對象實例的標籤,並提高檢測器對對抗攻擊的魯棒性。相比於基線Faster-RCNN模型,文章提出的模型能夠實現更高的mAP,F1和AUC值。實驗結果表明,一個簡單的自適應上下文模塊可以顯著提高目標檢測器的可靠性。

- 近年來,跨域目標檢測問題開始引起計算機視覺界的關注。[2]提出了一種新的無監督跨域檢測模型,該模型利用源域中的注釋數據來訓練一個針對不同目標域的目標檢測器。該模型通過在深度維度和空間維度上進行跨域特徵對齊,緩解了目標檢測的跨域表示發散問題。在通道層的深度維度上,它利用通道間的信息來彌合與圖像風格對齊相關的領域分歧。在空間層次維度上,針對跨域特徵對齊,採用空間注意力模塊增強相關區域的檢測,抑制不相關區域的檢測。文章在大量跨域檢測數據集上進行了實驗。實驗結果表明,該方法優於現有的跨域目標檢測方法。


自然語言處理方面:
- 預訓練語言模型(Pre-trained Language Models,PTLM)在一系列自然語言理解(NLU)和生成(NLG)任務中取得令人印象深刻的結果。但是,當前的預訓練目標(例如,掩碼Token預測(對於BERT型PTLM)和掩碼跨度填充(對於T5型PTLM))沒有明確建模關於日常概念的關係常識知識,這對於許多需要常識才能理解或生成的下遊任務至關重要。為了以概念為中心的常識知識增強PTLM,[28]提出從文本中學習常識的生成性和對比性目標,並將其用作中間的自監督學習任務,用於逐步預訓練PTLM(在特定於任務之前)在下遊數據集上進行微調。此外,研究者開發了一個聯合預訓練框架,以統一生成目標和對比目標,以便其可以相互促進。大量實驗結果表明,所提方法:概念感知語言模型(Concept-Aware Language Model ,CALM),可以將更多常識知識打包到預訓練文本到文本Transformer參數中,而無需依賴外部知識圖譜,從而在NLU和NLG任務上取得更好效果。實驗顯示,雖然僅在相對較小的語料庫上進行了幾步增量預訓練,但CALM始終以穩定優勢勝過基線方法,甚至可以與某些較大的PTLM相比較,表明CALM可以作為通用的即插即用改進PTLM常識推理能力的方法。

- 最近在自然語言處理方面取得的進展使廣泛的任務實現了自動化,包括機器翻譯、命名實體識別和情感分析。然而,文檔或文檔組的自動摘要仍難以實現,許多努力僅限於提取關鍵詞、關鍵短語或關鍵句。由於問題的固有難度和訓練數據的有限性,準確的抽象摘要還沒有實現。[35]提出一種以主題為中心的無監督多文檔摘要框架,為微軟學術圖譜(Microsoft Academic Graph,MAG)中的20個研究領域(FoS)的科學文章組和DUC-2004任務2中的新聞文章生成抽取式和抽象式摘要。所提算法通過開發突出的語言單元選擇(salient language unit selection )和文本生成技術(text generation techniques)來生成抽象摘要。所提方法在自動提取評價指標上評估時與當前最佳方法相匹配,而在五個人類評價指標(蘊含性、關聯性、簡潔性、可讀性和語法)上,所提方法相比抽象摘要表現得更好。兩位語言學家以合作作者身份參與並評價該算法的結果,kappa得分達到0.68。研究者計劃公開分享MAG-20,這是一個經過人類驗證的主題群研究文章及其摘要的黃金標準數據集,以促進抽象摘要的研究。

- 許多語言對(language pairs)資源不足——並行數據數量和/或質量不足以訓練可以達到可接受準確性標準的神經機器翻譯(NMT)模型。許多現有工作都探索了使用易於獲取的單語數據來改善這種語言(甚至是高資源語言)翻譯模型的性能。這些工作中最成功的是回譯法:使用目標語言單語數據的翻譯來增加訓練數據的數量。反向傳播模型的質量(在可用並行數據上進行訓練)已顯示出確定該翻譯方法的性能。人們已探索許多方法來改善此模型性能,特別是在資源較少的並行語言不足以訓練可接受的反向模型的低資源語言中。這些研究工作中包括使用自學習和迭代回譯。這些方法顯示出比標準逆向翻譯更好的性能。基於此,[31]提出迭代式自訓練法,作為對自學習方法的改進,以進一步增強後向模型性能。多次迭代中,由後向模型生成的綜合數據用於通過前向翻譯提高其性能。實驗表明,該方法在IWSLT'14英德低資源NMT上優於標準的反向翻譯和自學習方法。儘管該方法的性能也優於迭代反向翻譯,但通過迭代的次數可以精確地減少需要訓練的模型的數量。

- 現有的知識庫答題研究主要採用標準的i.i.d假設,即問題的訓練分布與測試分布相同。然而,i.i.d在大規模知識庫上可能既無法合理實現,也不可取,因為:1)真實用戶分布很難被捕捉到;2)從巨大的空間中隨機抽取訓練實例將是非常低效的。相反,[33]提出KBQA模型應該有三個層次的內置泛化:i.i.d、compositional和zero-shot。為促進具有更強泛化能力的KBQA模型發展,研究者構建並發布了一個新的大規模、高質量數據集GrailQA,其中包含64,495個問題,並提供所有三種泛化水平的評估設置。此外,研究者還提出一種新型基於BERT的KBQA模型。所提數據集和模型的結合,使得研究者能首次徹底研究和證明BERT等預訓練上下文嵌入在KBQA泛化中的關鍵作用。

- 通常,機器學習系統通過訓練數千個樣本來解決新任務。相反,人類可以通過閱讀一些說明(其中可能帶有有一或兩個例子)來解決新任務。為縮小兩者間差距,[30]引入一個用於開發NLP系統的框架,該框架可以在閱讀新任務說明後綜合解決該領域的先前工作,從而解決新任務。研究者使用新的英語數據集ZEST實例化了此框架,該數據集用於針對未見任務進行面向任務的評估。將任務描述表述為問題,研究者確保每個任務描述都具有足夠的通用性,可應用於許多種輸入,從而全面評估模型解決每個任務的能力。此外,數據集的結構測試特定類型的系統概括。研究發現,最新的T5模型在ZEST上得分達到12%,這對NLP研究人員提出了重大挑戰。

- 隨著深度神經網絡的快速發展,特別是大型預訓練模型的成功使用,中文分詞(Chinese Word Segmentation,CWS)系統的性能逐漸趨於平穩。[29]對現有中文分詞任務已經取得的成績進行了總結,並重新思考了CWS任務的未來。在方法論上,文章提出了針對現有CWS系統的精細化評估,不僅可以診斷現有模型的優缺點,還可以量化不同準則之間的差異,緩解多準則學習時的負遷移問題。在策略上,儘管文章不打算提出一個新的模型,但對8個模型和7個數據集的綜合實驗,以及全面的分析,可以為未來的研究尋找到一些有前景的方向。

- 對大量未標記數據的預訓練模型已經成為提高許多NLP任務準確性的有效方法。另一方面,傳統機器翻譯通過噪聲信道建模來利用未標記數據。同樣的想法最近被證明對神經機器翻譯也有很大的作用。不幸的是,使用現代序列對序列模型的樸素噪聲信道建模比其他方法要慢一個數量級。為了解決這一問題,[36]提出了一個有效的替代方法來進行推理,與強集成方法一樣快,同時還提高了模型精度。在WMT Romanian-English數據集上的實驗結果表明,文章提出的噪聲信道方法比強預訓練模型更加有效。

- 現有的自然語言處理系統容易受到由拼寫錯誤引起的噪聲輸入的影響。相反,人們可以很容易地從拼寫錯誤和周圍環境中推斷出相應的正確單詞。受此啟發,[32]通過利用拼寫信息和全局上下文表示來解決獨立拼寫糾正問題,該問題只糾正每個Token的拼寫,而不需要額外的Token插入或刪除操作。文章提供了一個簡單而強大的解決方案,通過對預先訓練好的語言模型進行微調,可以聯合檢測和糾正拼寫錯誤。文章提出的解決方案比以前的最先進的結果高出了12.8%的F0.5值。

- 個體認知和社會性特徵在語言使用上都有體現。此外,容易在網上傳播假新聞的個體往往具有共同的特徵。基於這些想法,[37]提出了一個模型,該模型僅基於個人在社交媒體上產生的語言來創建個人的表徵,並使用它們來檢測假新聞。文章表明,基於語言的用戶表徵對這項任務是有益的。文章還對假新聞傳播者的語言進行了擴展分析,表明其主要特徵大多與領域無關。

- [34]提出有關在兒童中期和青春期的心智閱讀能力自評分的首個研究工作。研究者創建了MIND-CA,一個新語料庫,包含來自1,066名7至14歲的兒童產生的11,311組英文問答對。研究者進行機器學習實驗,並進行廣泛的定量和定性評估。該研究獲得令人鼓舞的結果,證明最新的NLP解決方案在新領域和新任務中的適用性。


除此之外,本期還有如下看點:
- 方面級自動摘要抽取是根據特定興趣點生成重點摘要的任務。這樣的摘要有助於對文本進行有效分析,例如從不同角度快速理解評論或意見。但是,由於不同領域的方面類型(例如,情感、產品功能)差異很大,因此先前模型的開發趨向於特定於領域。[51]提出WikiAsp,一個大規模多領域方面級自動摘要數據集,旨在推動基於開放域的方面級自動摘要研究。具體而言,研究者使用來自20個不同域的Wikipedia文章來構建數據集,並使用每篇文章的標題和邊界作為方面標註的代理。我們為此任務提出了幾個簡單的基線模型,並對數據集進行了實驗。結果突出顯示了在這種情況下現有摘要模型所面臨的主要挑戰,例如對引述來源的適當代詞處理以及對時間敏感事件的一致解釋。

- 雖然深度學習模型通常會獲得出色的任務績效,但其成功卻因無法區分因果因素造成的虛假關聯而受到阻礙,例如當其使用受保護屬性(如種族、性別等)進行決策時。[63]解決了在這種情況下對卷積神經網絡(CNN)進行去偏的問題。基於現有消除詞嵌入和模型可解釋性的工作,所提元正交化方法鼓勵不同概念(例如性別和類標籤)的CNN表示在激活空間中彼此正交,同時保持強大的下遊任務性能。通過各種實驗,研究者系統測試所提方法,並證明該方法可大幅減輕模型偏差,且與當前對抗性去偏方法具有競爭力。

- 當代機器學習應用程式經常涉及許多類的分類任務。儘管人們已廣泛使用這些模型,但仍缺少對分類算法的統計屬性和行為的精確理解,尤其是在類別數量很大的現代系統中。[84]通過提供線性多分類的第一個漸近精確分析,朝該方向邁出一步。研究者的理論分析使其能夠準確表徵測試誤差在不同的訓練算法、數據分布、問題維度以及類數量的分布、類間/類內相關性和類先驗情況下如何變化。分析表明,分類精度與分布高度相關,不同算法可針對不同數據分布和/或訓練/特徵量實現最佳性能。與線性回歸/二元分類不同,多分類中的測試錯誤依賴於訓練模型的複雜特徵(例如一些訓練權重間的相關性),其漸近行為難以表徵。這種挑戰已出現在簡單分類器中,例如最小化平方損失的那些。所提新理論技術使人們能夠克服其中一些挑戰。所獲得的見解可能為進一步理解本文所研究的其他分類算法鋪平道路。

- 常識知識獲取是人工智慧領域一個重要的公開挑戰。[111]研究用新語句自動擴充常識知識庫(KB)的任務。研究者憑經驗證明,為完成任務獲得有意義的否定樣本是不平凡的,並提出了NegatER(一種產生否定常識的框架)來應對這一挑戰。研究者的評估中,展示了NegatER產生的知識的內在價值和外部實用性,為該方向的未來研究開闢了新途徑。

- 該研究由中科大Borealis AI阿爾伯塔大學聯合展開。深度強化學習(Deep Reinforcement Learning,DRL)最近在各個領域都取得重大進展。但是,由於多種因素,解釋RL智能體的策略仍是一個懸而未決的問題,其中一個就是解釋神經網絡決策的複雜性。最近,一組工作使用基於決策樹的模型來學習可解釋策略。已證明軟決策樹(Soft Decision Trees ,SDT)和離散可微決策樹(Discretized Differentiable Decision Trees,DDT)既可以實現良好性能,又可以共享擁有可解釋策略的好處。[116]進一步提高基於樹的可解釋RL性能和可解釋結果。所提級聯決策樹(Cascading Decision Trees,CDT)在決策路徑上應用表示學習,以實現更豐富的表達。實證結果表明,在兩種情況下,如果CDT用作策略函數逼近器或用作模仿學習者來解釋黑匣子策略,則CDT可以比SDT具有更好的性能和更簡潔的模型。作為第二個貢獻,由於其固有的不穩定性,該研究揭示了通過模仿學習和基於樹的可解釋模型來解釋黑匣子策略的局限性。

- 隨著信息技術的飛速發展,網絡系統變得越來越複雜,因此潛在的系統動態性通常是未知的或難以描述的。找到良好的網絡控制策略對於實現期望的網絡性能(例如,高吞吐量或低延遲)非常重要。[115]考慮使用基於模型的強化學習(RL)來學習排隊網絡的最佳控制策略,以使平均作業延遲(或等效的平均隊列積壓)最小化。但是,RL中的傳統方法無法處理網絡控制問題的無窮狀態空間。為克服該困難,研究者提出一種新算法,稱為排隊網絡強化學習(Reinforcement Learning for Queueing Networks,RL-QN),該算法將基於模型的RL方法應用於狀態空間的有限子集,同時為其餘狀態應用已知的穩定策略。研究者建立了RL-QN下具有適當構造子集的平均隊列累積工作,可以任意接近最佳結果。研究者在動態伺服器分配、路由和交換問題中評估RL-QN。仿真結果表明,RL-QN有效減少了平均隊列積壓。

- 抑鬱症和創傷後應激障礙(PTSD)是通常與經歷創傷事件相關的精神病學狀況。通過非侵入性技術(例如基於活動的算法)評估心理健康狀況,有助於確定成功的早期幹預措施。[123]使用從創傷後佩戴研究級智能手錶的1113個人中捕獲的運動活動信息卷積變分自編碼器(VAE)架構用於從四周的書法數據中無監督提取特徵。通過使用VAE潛變量和參與者創傷前身體健康狀況作為特徵,邏輯回歸分類器在接受者工作特徵曲線線下面積(AUC)指標上獲得0.64的面積,以評估其心理健康結果。結果表明,VAE模型是用於長期研究中的心理健康結果書法數據分析的有前途方法。


最後,本期還包含7個新構造的數據集[51-57],5個新出現的挑戰賽[58-62],9篇綜述[93-101],3個開放平臺或工具包[102-104],以及其他技術。





計算機視覺Computer Vision[1]MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy ModelsSourav Biswas, Jerry Liu, Kelvin Wong, Shenlong Wang, Raquel Urtasun摘 要:

原 文:http://arxiv.org/pdf/2011.07590v1



[2]Bi-Dimensional Feature Alignment for Cross-Domain Object DetectionZhen Zhao, Yuhong Guo, Jieping Ye摘 要:

原 文:http://arxiv.org/pdf/2011.07205v1



[3]Using Graph Neural Networks to Reconstruct Ancient DocumentsCecilia Ostertag, Marie Beurton-Aimar摘 要:

原 文:http://arxiv.org/pdf/2011.07048v1



[4]iPerceive: Applying Common-Sense Reasoning to Multi-Modal Dense Video Captioning and Video Question AnsweringAman Chadha, Gurneet Arora, Navpreet Kaloty摘 要:

原 文:http://arxiv.org/pdf/2011.07735v1



[5]Transformer-Encoder Detector Module: Using Context to Improve Robustness to Adversarial Attacks on Object DetectionFaisal Alamri, Sinan Kalkan, Nicolas Pugeault摘 要:

原 文:http://arxiv.org/pdf/2011.06978v1



[6]Domain Adaptation Gaze Estimation by Embedding with Prediction ConsistencyZidong Guo, Zejian Yuan, Chong Zhang, Wanchao Chi, Yonggen Ling, Shenghao Zhang摘 要:

原 文:http://arxiv.org/pdf/2011.07526v1



[7]Multi-layered tensor networks for image classificationRaghavendra Selvan, Silas Ørting, Erik B Dam摘 要:

原 文:http://arxiv.org/pdf/2011.06982v1

資 源:github.com/raghavian/mltn



[8]Data-efficient Alignment of Multimodal Sequences by Aligning Gradient Updates and Internal Feature DistributionsJianan Wang, Boyang Li, Xiangyu Fan, Jing Lin, Yanwei Fu摘 要:

原 文:http://arxiv.org/pdf/2011.07517v1

資 源:github.com/pytorch/pytorch



[9]SHAD3S: : A model to Sketch, Shade and ShadowRaghav Brahmadesam Venkataramaiyer, Abhishek Joshi, Saisha Narang, Vinay P. Namboodiri摘 要:

原 文:http://arxiv.org/pdf/2011.06822v1



[10]Towards Zero-Shot Learning with Fewer Seen Class ExamplesVinay Kumar Verma, Ashish Mishra, Anubha Pandey, Hema A. Murthy, Piyush Rai摘 要:

原 文:http://arxiv.org/pdf/2011.07279v1



[11]BirdSLAM: Monocular Multibody SLAM in Bird's-Eye ViewSwapnil Daga, Gokul B. Nair, Anirudha Ramesh, Rahul Sajnani, Junaid Ahmed Ansari, K. Madhava Krishna摘 要:

原 文:http://arxiv.org/pdf/2011.07613v1



[12]JOLO-GCN: Mining Joint-Centered Light-Weight Information for Skeleton-Based Action RecognitionJinmiao Cai, Nianjuan Jiang, Xiaoguang Han, Kui Jia, Jiangbo Lu摘 要:

原 文:http://arxiv.org/pdf/2011.07787v1



[13]Lightweight Single-Image Super-Resolution Network with Attentive Auxiliary Feature LearningXuehui Wang, Qing Wang, Yuzhi Zhao, Junchi Yan, Lei Fan, Long Chen摘 要:

原 文:http://arxiv.org/pdf/2011.06773v1

資 源:github.com/wxxxxxxh/A2F-SR



[14]Adaptive Future Frame Prediction with Ensemble NetworkWonjik Kim, Masayuki Tanaka, Masatoshi Okutomi, Yoko Sasaki摘 要:

原 文:http://arxiv.org/pdf/2011.06788v1



[15]Modeling, Reduction, and Control of a Helically Actuated Inertial Soft Robotic Arm via the Koopman OperatorDavid A. Haggerty, Michael J. Banks, Patrick C. Curtis, Igor Mezić, Elliot W. Hawkes摘 要:

原 文:http://arxiv.org/pdf/2011.07939v1



[16]Local Anomaly Detection in Videos using Object-Centric Adversarial LearningPankaj Raj Roy, Guillaume-Alexandre Bilodeau, Lama Seoud摘 要:

原 文:http://arxiv.org/pdf/2011.06722v1



[17]Pollen Grain Microscopic Image Classification Using an Ensemble of Fine-Tuned Deep Convolutional Neural NetworksAmirreza Mahbod, Gerald Schaefer, Rupert Ecker, Isabella Ellinger摘 要:

原 文:http://arxiv.org/pdf/2011.07428v1



[18]A Study of Domain Generalization on Ultrasound-based Multi-Class Segmentation of Arteries, Veins, Ligaments, and Nerves Using Transfer LearningEdward Chen, Tejas Sudharshan Mathai, Vinit Sarode, Howie Choset, John Galeotti摘 要:

原 文:http://arxiv.org/pdf/2011.07019v1



[19]Grant-Free Opportunistic Uplink Transmission in Wireless-powered IoT: A Spatio-temporal ModelMohammad Gharbieh, Hesham ElSawy, Mustafa Emara, Hong-Chuan Yang, Mohamed-Slim Alouini摘 要:

原 文:http://arxiv.org/pdf/2011.08131v1



[20]Cycle-Consistent Generative Rendering for 2D-3D Modality TranslationTristan Aumentado-Armstrong, Alex Levinshtein, Stavros Tsogkas, Konstantinos G. Derpanis, Allan D. Jepson摘 要:

原 文:http://arxiv.org/pdf/2011.08026v1



[21]To Close Is Easier Than To Open: Dual Parameterization To k-MedianJarosław Byrka, Szymon Dudycz, Pasin Manurangsi, Jan Marcinkowski, Michał Włodarczyk摘 要:

原 文:http://arxiv.org/pdf/2011.08083v1



[22]Deep Multi-view Image Fusion for Soybean Yield Estimation in Breeding Applications Deep Multi-view Image Fusion for Soybean Yield Estimation in Breeding ApplicationsLuis G Riera, Matthew E. Carroll, Zhisheng Zhang, Johnathon M. Shook, Sambuddha Ghosal, Tianshuang Gao, Arti Singh, Sourabh Bhattacharya, Baskar Ganapathysubramanian, Asheesh K. Singh, Soumik Sarkar摘 要:

原 文:http://arxiv.org/pdf/2011.07118v1



[23]DARE: AI-based Diver Action Recognition System using Multi-Channel CNNs for AUV SupervisionJing Yang, James P. Wilson, Shalabh Gupta摘 要:

原 文:http://arxiv.org/pdf/2011.07713v1



[24]Using a Supervised Method without supervision for foreground segmentationLevi Kassel, Michael Werman摘 要:

原 文:http://arxiv.org/pdf/2011.07954v1



[25]Unsupervised Domain Adaptive Knowledge Distillation for Semantic SegmentationDivya Kothandaraman, Athira Nambiar, Anurag Mittal摘 要:

原 文:http://arxiv.org/pdf/2011.08007v1



[26]On the Effectiveness of Vision Transformers for Zero-shot Face Anti-SpoofingAnjith George, Sebastien Marcel摘 要:

原 文:http://arxiv.org/pdf/2011.08019v1



[27]Scaled-YOLOv4: Scaling Cross Stage Partial NetworkChien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao摘 要:

原 文:http://arxiv.org/pdf/2011.08036v1



自然語言處理Natural Language Processing[28]Pre-training Text-to-Text Transformers for Concept-centric Common SenseWangchunshu Zhou, Dong-Ho Lee, Ravi Kiran Selvam, Seyeon Lee, Bill Yuchen Lin, Xiang Ren摘 要:

原 文:http://arxiv.org/pdf/2011.07956v1

資 源:github.com/INK-USC/CALM, github.com/PyTorchLightning/pytorch-lightning



[29]RethinkCWS: Is Chinese Word Segmentation a Solved Task?Jinlan Fu, Pengfei Liu, Qi Zhang, Xuanjing Huang摘 要:

原 文:http://arxiv.org/pdf/2011.06858v1



[30]Learning from Task DescriptionsOrion Weller, Nicholas Lourie, Matt Gardner, Matthew E. Peters摘 要:

原 文:http://arxiv.org/pdf/2011.08115v1



[31]Iterative Self-Learning for Enhanced Back-Translation in Low Resource Neural Machine TranslationIdris Abdulmumin, Bashir Shehu Galadanci, Ismaila Idris Sinan摘 要:

原 文:http://arxiv.org/pdf/2011.07403v1



[32]Context-aware Stand-alone Neural Spelling CorrectionXiangci Li, Hairong Liu, Liang Huang摘 要:

原 文:http://arxiv.org/pdf/2011.06642v1



[33]Beyond I.I.D.: Three Levels of Generalization for Question Answering on Knowledge BasesYu Gu, Sue Kase, Michelle Vanni, Brian Sadler, Percy Liang, Xifeng Yan, Yu Su摘 要:

原 文:http://arxiv.org/pdf/2011.07743v1



[34]"What is on your mind?" Automated Scoring of Mindreading in Childhood and Early AdolescenceVenelin Kovatchev, Phillip Smith, Mark Lee, Imogen Grumley Traynor, Irene Luque Aguilera, Rory T. Devine摘 要:

原 文:http://arxiv.org/pdf/2011.08035v1



[35]Topic-Centric Unsupervised Multi-Document Summarization of Scientific and News ArticlesAmanuel Alambo, Cori Lohstroh, Erik Madaus, Swati Padhee, Brandy Foster, Tanvi Banerjee, Krishnaprasad Thirunarayan, Michael Raymer摘 要:

原 文:http://arxiv.org/pdf/2011.08072v1



[36]Language Models not just for Pre-training: Fast Online Neural Noisy Channel ModelingShruti Bhosale, Kyra Yee, Sergey Edunov, Michael Auli摘 要:

原 文:http://arxiv.org/pdf/2011.07164v1

資 源:github.com/rsennrich/wmt16-scripts



[37]Words are the Window to the Soul: Language-based User Representations for Fake News DetectionMarco Del Tredici, Raquel Fernández摘 要:

原 文:http://arxiv.org/pdf/2011.07389v1



[38]EDITOR: an Edit-Based Transformer with Repositioning for Neural Machine Translation with Soft Lexical ConstraintsWeijia Xu, Marine Carpuat摘 要:

原 文:http://arxiv.org/pdf/2011.06868v1

資 源:github.com/pytorch/fairseq



[39]diagNNose: A Library for Neural Activation AnalysisJaap Jumelet摘 要:

原 文:http://arxiv.org/pdf/2011.06819v1

資 源:github.com/i-machine-think/diagnnose



[40]Interpretable Multi-dataset Evaluation for Named Entity RecognitionJinlan Fu, Pengfei Liu, Graham Neubig摘 要:

原 文:http://arxiv.org/pdf/2011.06854v1

資 源:github.com/neulab/InterpretEval



[41]Matching Theory and Data with Personal-ITY: What a Corpus of Italian YouTube Comments Reveals About PersonalityElisa Bassignana, Malvina Nissim, Viviana Patti摘 要:

原 文:http://arxiv.org/pdf/2011.07009v1

資 源:github.com/elisabassignana/Personal-ITY



[42]Meaningful Answer Generation of E-Commerce Question-AnsweringShen Gao, Xiuying Chen, Zhaochun Ren, Dongyan Zhao, Rui Yan摘 要:

原 文:http://arxiv.org/pdf/2011.07307v1



[43]Score Combination for Improved Parallel Corpus Filtering for Low Resource ConditionsMuhammad N. ElNokrashy, Amr Hendy, Mohamed Abdelghaffar, Mohamed Afify, Ahmed Tawfik, Hany Hassan Awadalla摘 要:

原 文:http://arxiv.org/pdf/2011.07933v1



[44]doc2dial: A Goal-Oriented Document-Grounded Dialogue DatasetSong Feng, Hui Wan, Chulaka Gunasekara, Siva Sankalp Patel, Sachindra Joshi, Luis A. Lastras摘 要:

原 文:http://arxiv.org/pdf/2011.06623v1



[45]Arabic Dialect Identification Using BERT-Based Domain AdaptationAhmad Beltagy, Abdelrahman Wael, Omar ElSherief摘 要:

原 文:http://arxiv.org/pdf/2011.06977v1



[46]Morphologically Aware Word-Level TranslationPaula Czarnowska, Sebastian Ruder, Ryan Cotterell, Ann Copestake摘 要:

原 文:http://arxiv.org/pdf/2011.07593v1



[47]DORB: Dynamically Optimizing Multiple Rewards with BanditsRamakanth Pasunuru, Han Guo, Mohit Bansal摘 要:

原 文:http://arxiv.org/pdf/2011.07635v1



[48]Learning from similarity and information extraction from structured documentsMartin Holeček摘 要:

原 文:http://arxiv.org/pdf/2011.07964v1



[49]Evaluating Sentence Segmentation and Word Tokenization Systems on Estonian Web TextsKairit Sirts, Kairit Peekman摘 要:

原 文:http://arxiv.org/pdf/2011.07868v1



[50]Text Information Aggregation with Centrality AttentionJingjing Gong, Hang Yan, Yining Zheng, Xipeng Qiu, Xuanjing Huang摘 要:

原 文:http://arxiv.org/pdf/2011.07916v1



數據集Dataset[51]WikiAsp: A Dataset for Multi-domain Aspect-based SummarizationHiroaki Hayashi, Prashant Budania, Peng Wang, Chris Ackerson, Raj Neervannan, Graham Neubig摘 要:

原 文:http://arxiv.org/pdf/2011.07832v1



[52]Open4Business(O4B): An Open Access Dataset for Summarizing Business DocumentsAmanpreet Singh, Niranjan Balasubramanian摘 要:

原 文:http://arxiv.org/pdf/2011.07636v1

資 源:github.com/fabiobatalha/crossrefapi, github.com/unpywall/unpywall, github.com/amanpreet692/Open4Business



[53]DebateSum: A large-scale argument mining and summarization datasetAllen Roush, Arvind Balaji摘 要:

原 文:http://arxiv.org/pdf/2011.07251v1

資 源:github.com/Hellisotherpeople/CX_DB8, github.com/Hellisotherpeople/debate2vec, github.com/Hellisotherpeople/DebateSum



[54]A Dataset for Tracking Entities in Open Domain Procedural TextNiket Tandon, Keisuke Sakaguchi, Bhavana Dalvi Mishra, Dheeraj Rajagopal, Peter Clark, Michal Guerquin, Kyle Richardson, Eduard Hovy摘 要:

原 文:http://arxiv.org/pdf/2011.08092v1



[55]IIRC: A Dataset of Incomplete Information Reading Comprehension QuestionsJames Ferguson, Matt Gardner, Hannaneh Hajishirzi, Tushar Khot, Pradeep Dasigi摘 要:

原 文:http://arxiv.org/pdf/2011.07127v1



[56]A Large-Scale Database for Graph Representation LearningScott Freitas, Yuxiao Dong, Joshua Neil, Duen Horng Chau摘 要:

原 文:http://arxiv.org/pdf/2011.07682v1



[57]Linking Publications to Funding at Project Level: A curated dataset of publications reported by FP7 projectsAlexis-Michel Mugabushaka摘 要:

原 文:http://arxiv.org/pdf/2011.07880v1



競賽與挑戰Competition & Challenge[58]The Person Index Challenge: Extraction of Persons from Messy, Short TextsMarkus Schröder, Christian Jilek, Michael Schulze, Andreas Dengel摘 要:

原 文:http://arxiv.org/pdf/2011.07990v1



[59]JNLP Team: Deep Learning for Legal Processing in COLIEE 2020Ha-Thanh Nguyen, Hai-Yen Thi Vuong, Phuong Minh Nguyen, Binh Tran Dang, Quan Minh Bui, Sinh Trong Vu, Chau Minh Nguyen, Vu Tran, Ken Satoh, Minh Le Nguyen摘 要:

原 文:http://arxiv.org/pdf/2011.08071v1



[60]IIT_kgp at FinCausal 2020, Shared Task 1: Causality Detection using Sentence Embeddings in Financial ReportsArka Mitra, Harshvardhan Srivastava, Yugam Tiwari摘 要:

原 文:http://arxiv.org/pdf/2011.07670v1



[61]TLab: Second Place Solution Towards Traffic4cast 2020 CompetitionFanyou Wu, Yang Liu, Zhiyuan Liu, Xiaobo Qu, Rado Gazo, Eva Haviarova摘 要:

原 文:http://arxiv.org/pdf/2011.07728v1



[62]Multi-channel MR Reconstruction (MC-MRRec) Challenge -- Comparing Accelerated MR Reconstruction Models and Assessing Their Genereralizability to Datasets Collected with Different CoilsYoussef Beauferris, Jonas Teuwen, Dimitrios Karkalousos, Nikita Moriakov, Mattha Caan, Lívia Rodrigues, Alexandre Lopes, Hélio Pedrini, Letícia Rittner, Maik Dannecker, Viktor Studenyak, Fabian Gröger, Devendra Vyas, Shahrooz Faghih-Roohi, Amrit Kumar Jethi, Jaya Chandra Raju, Mohanasankar Sivaprakasam, Wallace Loos, Richard Frayne, Roberto Souza摘 要:

原 文:http://arxiv.org/pdf/2011.07952v1



方法論Methodology[63]Debiasing Convolutional Neural Networks via Meta OrthogonalizationKurtis Evan David, Qiang Liu, Ruth Fong摘 要:

原 文:http://arxiv.org/pdf/2011.07453v1

資 源:github.com/pytorch/vision



[64]Learning to Orient Surfaces by Self-supervised Spherical CNNsRiccardo Spezialetti, Federico Stella, Marlon Marcon, Luciano Silva, Samuele Salti, Luigi Di Stefano摘 要:

原 文:http://arxiv.org/pdf/2011.03298v2



[65]Better, Faster Fermionic Neural NetworksJames S. Spencer, David Pfau, Aleksandar Botev, W. M. C. Foulkes摘 要:

原 文:http://arxiv.org/pdf/2011.07125v1



[66]Lambda-Field: A Continuous Counterpart Of The Bayesian Occupancy Grid For Risk Assessment And Safe NavigationJohann Laconte, Abderrahim Kasmi, François Pomerleau, Roland Chapuis, Laurent Malaterre, Christophe Debain, Romuald Aufrère摘 要:

原 文:http://arxiv.org/pdf/2011.08045v1



[67]Reinforced Molecular Optimization with Neighborhood-Controlled GrammarsChencheng Xu, Qiao Liu, Minlie Huang, Tao Jiang摘 要:

原 文:http://arxiv.org/pdf/2011.07225v1

資 源:github.com/Zoesgithub/MNCE-RL



[68]Solving Physics Puzzles by Reasoning about PathsAugustin Harter, Andrew Melnik, Gaurav Kumar, Dhruv Agarwal, Animesh Garg, Helge Ritter摘 要:

原 文:http://arxiv.org/pdf/2011.07357v1

資 源:github.com/ndrwmlnk/PHYRE-Reasoning-about-Paths



[69]Filter Pre-Pruning for Improved Fine-tuning of Quantized Deep Neural NetworksJun Nishikawa, Ryoji Ikegaya摘 要:

原 文:http://arxiv.org/pdf/2011.06751v1



[70]Federated Learning System without Model Sharing through Integration of Dimensional Reduced Data RepresentationsAnna Bogdanova, Akie Nakai, Yukihiko Okada, Akira Imakura, Tetsuya Sakurai摘 要:

原 文:http://arxiv.org/pdf/2011.06803v1



[71]Testing the Genomic Bottleneck Hypothesis in Hebbian Meta-LearningRasmus Berg Palm, Elias Najarro, Sebastian Risi摘 要:

原 文:http://arxiv.org/pdf/2011.06811v1



[72]Medical symptom recognition from patient text: An active learning approach for long-tailed multilabel distributionsAli Mottaghi, Prathusha K Sarma, Xavier Amatriain, Serena Yeung, Anitha Kannan摘 要:

原 文:http://arxiv.org/pdf/2011.06874v1



[73]An example of prediction which complies with Demographic Parity and equalizes group-wise risks in the context of regressionEvgenii Chzhen, Nicolas Schreuder摘 要:

原 文:http://arxiv.org/pdf/2011.07158v1



[74]Deep Spatial Learning with Molecular VibrationZiyang Zhang, Yingtao Luo摘 要:

原 文:http://arxiv.org/pdf/2011.07200v1



[75]OGNet: Towards a Global Oil and Gas Infrastructure Database using Deep Learning on Remotely Sensed ImageryHao Sheng, Jeremy Irvin, Sasankh Munukutla, Shawn Zhang, Christopher Cross, Kyle Story, Rose Rustowicz, Cooper Elsworth, Zutao Yang, Mark Omara, Ritesh Gautam, Robert B. Jackson, Andrew Y. Ng摘 要:

原 文:http://arxiv.org/pdf/2011.07227v1



[76]Bayesian recurrent state space model for rs-fMRIArunesh Mittal, Scott Linderman, John Paisley, Paul Sajda摘 要:

原 文:http://arxiv.org/pdf/2011.07365v1



[77]Cost-Sensitive Machine Learning Classification for Mass Tuberculosis Verbal ScreeningAli Akbar Septiandri, Aditiawarman, Roy Tjiong, Erlina Burhan, Anuraj Shankar摘 要:

原 文:http://arxiv.org/pdf/2011.07396v1



[78]ArraMon: A Joint Navigation-Assembly Instruction Interpretation Task in Dynamic EnvironmentsHyounghun Kim, Abhay Zala, Graham Burri, Hao Tan, Mohit Bansal摘 要:

原 文:http://arxiv.org/pdf/2011.07660v1



[79]Hybrid Federated and Centralized LearningAhmet M. Elbir摘 要:

原 文:http://arxiv.org/pdf/2011.06892v1



[80]LEAN: graph-based pruning for convolutional neural networks by extracting longest chainsRichard Schoonhoven, Allard A. Hendriksen, Daniël M. Pelt, K. Joost Batenburg摘 要:

原 文:http://arxiv.org/pdf/2011.06923v1



[81]ActBERT: Learning Global-Local Video-Text RepresentationsLinchao Zhu, Yi Yang摘 要:

原 文:http://arxiv.org/pdf/2011.07231v1



[82]Precision-Recall Curve (PRC) Classification TreesJiaju Miao, Wei Zhu摘 要:

原 文:http://arxiv.org/pdf/2011.07640v1



[83]Good proctor or "Big Brother"? AI Ethics and Online Exam Supervision TechnologiesSimon Coghlan, Tim Miller, Jeannie Paterson摘 要:

原 文:http://arxiv.org/pdf/2011.07647v1



神經網絡原理Neural Network Theory[84]Theoretical Insights Into Multiclass Classification: A High-dimensional Asymptotic ViewChristos Thrampoulidis, Samet Oymak, Mahdi Soltanolkotabi摘 要:

原 文:http://arxiv.org/pdf/2011.07729v1



[85]Multi-label classification: do Hamming loss and subset accuracy really conflict with each other?Guoqiang Wu, Jun Zhu摘 要:

原 文:http://arxiv.org/pdf/2011.07805v1

資 源:github.com/GuoqiangWoodrowWu/MLC-theory



[86]Towards Understanding the Regularization of Adversarial Robustness on Neural NetworksYuxin Wen, Shuai Li, Kui Jia摘 要:

原 文:http://arxiv.org/pdf/2011.07478v1



[87]Adversarially Robust Classification based on GLRTBhagyashree Puranik, Upamanyu Madhow, Ramtin Pedarsani摘 要:

原 文:http://arxiv.org/pdf/2011.07835v1



[88]Subtensor Quantization for MobilenetsThu Dinh, Andrey Melnikov, Vasilios Daskalopoulos, Sek Chai摘 要:

原 文:http://arxiv.org/pdf/2011.08009v1



[89]FAIR: Fair Adversarial Instance Re-weightingAndrija Petrović, Mladen Nikolić, Sandro Radovanović, Boris Delibašić, Miloš Jovanović摘 要:

原 文:http://arxiv.org/pdf/2011.07495v1



[90]Accelerating Distributed SGD for Linear Least-Squares ProblemKushal Chakrabarti, Nirupam Gupta, Nikhil Chopra摘 要:

原 文:http://arxiv.org/pdf/2011.07595v1



[91]Gradient Episodic Memory with a Soft Constraint for Continual LearningGuannan Hu, Wu Zhang, Hu Ding, Wenhao Zhu摘 要:

原 文:http://arxiv.org/pdf/2011.07801v1



[92]Mixing ADAM and SGD: a Combined Optimization MethodNicola Landro, Ignazio Gallo, Riccardo La Grassa摘 要:

原 文:http://arxiv.org/pdf/2011.08042v1



綜述Survey[93]A Survey on the Explainability of Supervised Machine LearningNadia Burkart, Marco F. Huber摘 要:

原 文:http://arxiv.org/pdf/2011.07876v1

資 源:github.com/andosa/treeinterpreter



[94]Deconstructing word embedding algorithmsKian Kenyon-Dean, Edward Newell, Jackie Chi Kit Cheung摘 要:

原 文:http://arxiv.org/pdf/2011.07013v1



[95]Conversational agents for learning foreign languages -- a surveyJasna Petrovic, Mladjan Jovanovic摘 要:

原 文:http://arxiv.org/pdf/2011.07901v1



[96]Survey of Methods for Automated Code-Reuse Exploit GenerationAlexey Vishnyakov, Alexey Nurmukhametov摘 要:

原 文:http://arxiv.org/pdf/2011.07862v1

資 源:github.com/pakt/ropc, github.com/sashs/ropper, github.com/d4em0n/exrop



[97]A Survey of Requirements for COVID-19 Mitigation Strategies. Part I: Newspaper ClipsWojciech Jamroga, David Mestel, Peter B. Roenne, Peter Y. A. Ryan, Marjan Skrobot摘 要:

原 文:http://arxiv.org/pdf/2011.07887v1

資 源:github.com/BDI-pathogens/covid-19_instant_tracing



[98]Deep learning in magnetic resonance prostate segmentation: A review and a new perspectiveDavid Gillespie, Connah Kendrick, Ian Boon, Cheng Boon, Tim Rattay, Moi Hoon Yap摘 要:

原 文:http://arxiv.org/pdf/2011.07795v1



[99]Video Big Data Analytics in the Cloud: A Reference Architecture, Survey, Opportunities, and Open Research IssuesAftab Alam, Irfan Ullah, Young-Koo Lee摘 要:

原 文:http://arxiv.org/pdf/2011.07807v1



[100]Environment Modeling for Adaptive Systems: A Systematic Literature ReviewFabian Kneer, Erik Kamsties, Klaus Schmid摘 要:

原 文:http://arxiv.org/pdf/2011.07892v1



[101]High-level Prior-based Loss Functions for Medical Image Segmentation: A SurveyRosana El Jurdia, Caroline Petitjean, Paul Honeine, Veronika Cheplygina, Fahed Abdallah摘 要:

原 文:http://arxiv.org/pdf/2011.08018v1



平臺與工具Platform & Tool[102]Tonic: A Deep Reinforcement Learning Library for Fast Prototyping and BenchmarkingFabio Pardo摘 要:

原 文:http://arxiv.org/pdf/2011.07537v1



[103]DeepMind Lab2DCharles Beattie, Thomas Köppe, Edgar A. Duéñez-Guzmán, Joel Z. Leibo摘 要:

原 文:http://arxiv.org/pdf/2011.07027v1

資 源:github.com/deepmind/lab2d



[104]pymgrid: An Open-Source Python Microgrid Simulator for Applied Artificial Intelligence ResearchGonzague Henri, Tanguy Levent, Avishai Halev, Reda Alami, Philippe Cordier摘 要:

原 文:http://arxiv.org/pdf/2011.08004v1



語音技術Audio & Speech[105]Deep Learning Based Generalized Models for Depression ClassificationNadee Seneviratne, Carol Espy-Wilson摘 要:

原 文:http://arxiv.org/pdf/2011.06739v1



[106]Speech enhancement guided by contextual articulatory informationYen-Ju Lu, Chia-Yu Chang, Yu Tsao, Jeih-weih Hung摘 要:

原 文:http://arxiv.org/pdf/2011.07442v1



[107]Automatic and perceptual discrimination between dysarthria, apraxia of speech, and neurotypical speechI. Kodrasi, M. Pernon, M. Laganaro, H. Bourlard摘 要:

原 文:http://arxiv.org/pdf/2011.07542v1



[108]Unsupervised Contrastive Learning of Sound Event RepresentationsEduardo Fonseca, Diego Ortego, Kevin McGuinness, Noel E. O'Connor, Xavier Serra摘 要:

原 文:http://arxiv.org/pdf/2011.07616v1



[109]Learning Frame Similarity using Siamese networks for Audio-to-Score AlignmentRuchit Agrawal, Simon Dixon摘 要:

原 文:http://arxiv.org/pdf/2011.07546v1



[110]Deep Shallow Fusion for RNN-T PersonalizationDuc Le, Gil Keren, Julian Chan, Jay Mahadeokar, Christian Fuegen, Michael L. Seltzer摘 要:

原 文:http://arxiv.org/pdf/2011.07754v1



知識圖譜Knowledge Graph[111]Generating Negative Commonsense KnowledgeTara Safavi, Danai Koutra摘 要:

原 文:http://arxiv.org/pdf/2011.07497v1



[112]Bridging the Technology Gap Between Industry and Semantic Web: Generating Databases and Server Code From RDFMarkus Schröder, Michael Schulze, Christian Jilek, Andreas Dengel摘 要:

原 文:http://arxiv.org/pdf/2011.07957v1

資 源:github.com/michaelbrunnbauer/rdf2rdb, github.com/jirutka/rsql-parser



[113]Molecular Mechanics-Driven Graph Neural Network with Multiplex Graph for Molecular StructuresShuo Zhang, Yang Liu, Lei Xie摘 要:

原 文:http://arxiv.org/pdf/2011.07457v1



[114]Why Not to Use Binary Floating Point Datatypes in RDFJan Martin Keil摘 要:

原 文:http://arxiv.org/pdf/2011.08077v1



強化學習Reinforcement Learning[115]RL-QN: A Reinforcement Learning Framework for Optimal Control of Queueing SystemsBai Liu, Qiaomin Xie, Eytan Modiano摘 要:

原 文:http://arxiv.org/pdf/2011.07401v1



[116]CDT: Cascading Decision Trees for Explainable Reinforcement LearningZihan Ding, Pablo Hernandez-Leal, Gavin Weiguang Ding, Changjian Li, Ruitong Huang摘 要:

原 文:http://arxiv.org/pdf/2011.07553v1

資 源:github.com/quantumiracle/Cascading-Decision-Tree, github.com/openai/gym



[117]Analog Circuit Design with Dyna-Style Reinforcement LearningWook Lee, Frans A. Oliehoek摘 要:

原 文:http://arxiv.org/pdf/2011.07665v1



[118]Blind Decision Making: Reinforcement Learning with Delayed ObservationsMridul Agarwal, Vaneet Aggarwal摘 要:

原 文:http://arxiv.org/pdf/2011.07715v1



[119]No-Regret Reinforcement Learning with Value Function Approximation: a Kernel Embedding ApproachSayak Ray Chowdhury, Rafael Oliveira摘 要:

原 文:http://arxiv.org/pdf/2011.07881v1



[120]Constrained Model-Free Reinforcement Learning for Process OptimizationElton Pan, Panagiotis Petsagkourakis, Max Mowbray, Dongda Zhang, Antonio del Rio-Chanona摘 要:

原 文:http://arxiv.org/pdf/2011.07925v1



推薦系統Recommendation System[121]CoSam: An Efficient Collaborative Adaptive Sampler for RecommendationJiawei Chen, Chengquan Jiang, Can Wang, Sheng Zhou, Yan Feng, Chun Chen, Martin Ester, Xiangnan He摘 要:

原 文:http://arxiv.org/pdf/2011.07739v1



[122]SamWalker++: recommendation with informative sampling strategyCan Wang, Jiawei Chen, Sheng Zhou, Qihao Shi, Yan Feng, Chun Chen摘 要:

原 文:http://arxiv.org/pdf/2011.07734v1



醫療與健康Medical Science & Health Care[123]Using Convolutional Variational Autoencoders to Predict Post-Trauma Health Outcomes from Actigraphy DataAyse S. Cakmak, Nina Thigpen, Garrett Honke, Erick Perez Alday, Ali Bahrami Rad, Rebecca Adaimi, Chia Jung Chang, Qiao Li, Pramod Gupta, Thomas Neylan, Samuel A. McLean, Gari D. Clifford摘 要:

原 文:http://arxiv.org/pdf/2011.07406v1



[124]The unreasonable effectiveness of Batch-Norm statistics in addressing catastrophic forgetting across medical institutionsSharut Gupta, Praveer Singh, Ken Chang, Mehak Aggarwal, Nishanth Arun, Liangqiong Qu, Katharina Hoebel, Jay Patel, Mishka Gidwani, Ashwin Vaswani, Daniel L Rubin, Jayashree Kalpathy-Cramer摘 要:

原 文:http://arxiv.org/pdf/2011.08096v1



[125]Autonomously Navigating a Surgical Tool Inside the Eye by Learning from DemonstrationJi Woong Kim, Changyan He, Muller Urias, Peter Gehlbach, Gregory D. Hager, Iulian Iordachita, Marin Kobilarov摘 要:

原 文:http://arxiv.org/pdf/2011.07785v1



[126]Towards Trainable Saliency Maps in Medical ImagingMehak Aggarwal, Nishanth Arun, Sharut Gupta, Ashwin Vaswani, Bryan Chen, Matthew Li, Ken Chang, Jay Patel, Katherine Hoebel, Mishka Gidwani, Jayashree Kalpathy-Cramer, Praveer Singh摘 要:

原 文:http://arxiv.org/pdf/2011.07482v1



[127]Measuring agreement on linguistic expressions in medical treatment scenariosJ Navrro, C Wagner, Uwe Aickelin, L Green, R Ashford摘 要:

原 文:http://arxiv.org/pdf/2011.07693v1



[128]Detection of masses and architectural distortions in digital breast tomosynthesis: a publicly available dataset of 5,060 patients and a deep learning modelMateusz Buda, Ashirbani Saha, Ruth Walsh, Sujata Ghate, Nianyi Li, Albert Święcicki, Joseph Y. Lo, Maciej A. Mazurowski摘 要:

原 文:http://arxiv.org/pdf/2011.07995v1

資 源:github.com/mateuszbuda/duke-dbt-detection



[129]Reinforced Medical Report Generation with X-Linear Attention and Repetition PenaltyWenting Xu, Chang Qi, Zhenghua Xu, Thomas Lukasiewicz摘 要:

原 文:http://arxiv.org/pdf/2011.07680v1



[130]A comparative study of semi- and self-supervised semantic segmentation of biomedical microscopy dataNastassya Horlava, Alisa Mironenko, Sebastian Niehaus, Sebastian Wagner, Ingo Roeder, Nico Scherf摘 要:

原 文:http://arxiv.org/pdf/2011.08076v1



應用Application[131]Learn an Effective Lip Reading Model without PainsDalu Feng, Shuang Yang, Shiguang Shan, Xilin Chen摘 要:

原 文:http://arxiv.org/pdf/2011.07557v1



[132]Student and Teacher Meet in a Shared Virtual Reality: A one-on-one Tutoring System for Anatomy EducationPatrick Saalfeld, Anna Schmeier, Wolfgang D'Hanis, Hermann-Josef Rothkötter, Bernhard Preim摘 要:

原 文:http://arxiv.org/pdf/2011.07926v1



[133]Text Mining to Identify and Extract Novel Disease Treatments From Unstructured DatasetsRahul Yedida, Saad Mohammad Abrar, Cleber Melo-Filho, Eugene Muratov, Rada Chirkova, Alexander Tropsha摘 要:

原 文:http://arxiv.org/pdf/2011.07959v1



其他技術Others[134]Efficient RGB-D Semantic Segmentation for Indoor Scene AnalysisDaniel Seichter, Mona Köhler, Benjamin Lewandowski, Tim Wengefeld, Horst-Michael Gross摘 要:

原 文:http://arxiv.org/pdf/2011.06961v1

資 源:github.com/TUI-NICR/ESANet



[135]Sparsity-Inducing Optimal Control via Differential Dynamic ProgrammingTraiko Dinev, Wolfgang Merkt, Vladimir Ivan, Ioannis Havoutis, Sethu Vijayakumar摘 要:

原 文:http://arxiv.org/pdf/2011.07325v1

資 源:github.com/ipab-slmc/sparse_ddp



[136]Toward Force Estimation in Robot-Assisted Surgery using Deep Learning with Vision and Robot StateZonghe Chua, Anthony M. Jarc, Allison M. Okamura摘 要:

原 文:http://arxiv.org/pdf/2011.02112v2



[137]Attitude and Thrust Strategies for Fully-Actuated Multirotors: The Fast-Track to Real-World ApplicationsAzarakhsh Keipour, Mohammadreza Mousaei, Andrew T Ashley, Sebastian Scherer摘 要:

原 文:http://arxiv.org/pdf/2011.06666v1



[138]Grasping with Chopsticks: Combating Covariate Shift in Model-free Imitation Learning for Fine ManipulationLiyiming Ke, Jingqiang Wang, Tapomayukh Bhattacharjee, Byron Boots, Siddhartha Srinivasa摘 要:

原 文:http://arxiv.org/pdf/2011.06719v1





相關焦點

  • 復旦邱錫鵬教授:2020最新NLP預訓練模型綜述
    新智元報導編輯:SF【新智元導讀】本文該綜述系統地介紹了nlp中的預訓練模型,深入盤點了目前主流的預訓練模型,提出了一種預訓練模型的分類體系。即:稱為token的上下文感知的詞嵌入或動態詞嵌入,因為其融入了整個文本中的「上下文信息」。可以稱之為「上下文感知的Encoder」。NLP通用Encoder架構如上圖,將非上下文和上下文結合在一起。形成通用的NLP任務的架構。
  • PTMs|2020最新NLP預訓練模型綜述
    如:知識增強預訓練,多語言預訓練,多模態預訓練和模型壓縮等3. 如何將PTMs學到的知識遷移到下遊的任務中。4. 收集了目前關於PTMs的學習資料。5.稱為token 的上下文感知的詞嵌入或動態詞嵌入,因為其融入了整個文本中的「上下文信息」。可以稱之為「上下文感知的Encoder」。NLP通用Encoder架構如上圖,將非上下文和上下文結合在一起。形成通用的NLP任務的架構。
  • 【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻
    近日,復旦大學邱錫鵬等學者發布了自然語言處理處理中預訓練模型PTMs的綜述大全,共25頁pdf205篇參考文獻,從背景知識到當前代表性PTM模型和應用研究挑戰等,是絕好的預訓練語言模型的文獻。由於下遊任務不再需要這些模型本身,它們在計算效率方面通常非常膚淺,如Skip-Gram[116]和GloVe[120]。雖然這些預訓練的嵌入可以捕獲單詞的語義含義,但它們是上下文無關的,不能捕獲文本的高級概念,如語法結構、語義角色、回指等。
  • 今日論文|上下文動態知識增強預訓練語言模型&DialoGLUE域遷移對話新基準&聯合實體集擴展和同義詞發現&圖主題模型&MORE
    但是,大多數這些增強知識的PLM都嵌入KG的靜態子圖(「知識上下文」),而不管PLM所需的知識可能根據特定文本(「文本上下文」)動態變化。[16]提出一個名為DKPLM的新框架,該框架可以根據PLM的文本上下文動態選擇、嵌入知識上下文,從而可以避免無法匹配輸入文本的KG中多餘和模稜兩可的知識的影響。
  • 今日論文|26億參數生成式中文預訓練語言模型CPM&互信息無/半監督並行學習&ISWC語義答案類型預測任務&元嵌入學習&MORE
    研究者利用最先進的文本轉換器工作流,從轉錄的視頻敘述中自動生成問題-答案對,並獲得新的大規模VideoQA訓練數據集。為處理該數據集中各種答案的公開詞彙,研究者提出一種基於視頻問題多模態轉換器與答案嵌入之間的對比損失的訓練程序,在零次學習VideoQA任務上評估所提模型,並顯示出色結果(尤其對於罕見答案)。
  • 復旦邱錫鵬超全NLP預訓練模型綜述論文:兩張圖帶你梳理完整脈絡
    由於下遊的任務不再需要這些模型的幫助,因此為了計算效率,它們通常採用淺層模型,如 Skip-Gram 和 GloVe。儘管這些經過預訓練的嵌入向量也可以捕捉單詞的語義,但它們卻不受上下文限制,只是簡單地學習「共現詞頻」。這樣的方法明顯無法理解更高層次的文本概念,如句法結構、語義角色、指代等等。
  • AAAI 2020學術會議提前看:常識知識與常識推理
    大多數現有方法嚴重依賴於預訓練的對象及其關係的檢測器,因此在面臨諸如遮擋,微小物體和長尾類別等檢測挑戰時可能效果不佳。在本文中,作者提出了一種聯合常識和關係推理的方法 (C-R Reasoning),該方法利用先驗知識進行圖像和視頻描述,而無需依賴任何目標檢測器。
  • 飛槳帶你了解:基於百科類數據訓練的 ELMo 中文預訓練模型
    ELMo訓練過程介紹  (1)數據預處理  將文檔按照句號、問號、感嘆以及內容分詞預處理。預處理後的數據文件,每行為一個分詞後的句子。  (2)模型訓練  利用提供的示例訓練數據和測試數據,進行單機多卡預訓練。
  • 飛槳帶你了解:基於百科類數據訓練的ELMo中文預訓練模型
    ELMo 模型簡介 ELMo ( Embeddings from Language Models )是重要的通用語義表示模型之一,以雙向 LSTM 為網路基本組件,以 Language Model 為訓練目標,通過預訓練得到通用的語義表示,將通用的語義表示作為 Feature 遷移到下遊 NLP 任務中,會顯著提升下遊任務的模型性能。
  • 如何用 Python 和 gensim 調用中文詞嵌入預訓練模型?
    利用 Python 和 Spacy 嘗試過英文的詞嵌入模型後,你是不是很想了解如何對中文詞語做向量表達,讓機器建模時捕捉更多語義信息呢?這份視頻教程,會手把手教你操作。疑問寫過《如何用Python處理自然語言?(Spacy與Word Embedding)》一文後,不少同學留言或私信詢問我,如何用 Spacy 處理中文詞語,捕捉更多語義信息。
  • 今日Paper | 新聞推薦系統;多路編碼;知識增強型預訓練模型等
    作者將原始圖通過graph embedding技術映射到一個隱空間,在隱空間基於相似度建立了新的圖。這樣每個節點的鄰居就可以分為原始圖和相似度圖,相似度上的鄰居可能是原始圖鄰居的k階鄰居,這樣可以保持高階的節點相似性。另一方面,作者又設計了可以感知節點間集合關係的聚合器,可以在聚合鄰居的時候考慮節點之間的集合關係。綜上,Geom-GCN解決了GNN的兩個基礎性問題。
  • 一作解讀NLPCC最佳學生論文:1200萬中文對話數據和預訓練模型CDial-GPT
    來自清華大學朱小燕、黃民烈團隊的王義達作為一作發表的《A Large-Scale Chinese Short-Text Conversation Dataset》獲得了最佳學生論文,以下是王義達本人對獲獎論文的親自解讀。基於Transformer的大規模預訓練語言模型極大地促進了開放領域對話的研究進展。
  • 一作解讀NLPCC最佳學生論文:1200萬中文對話數據和預訓練模型CDial...
    基於Transformer的大規模預訓練語言模型極大地促進了開放領域對話的研究進展。然而目前這一技術在中文對話領域並未被廣泛應用,主要原因在於目前缺乏大規模高質量的中文對話開源數據。  為了推動中文對話領域的研究,彌補中文對話語料不足這一問題,我們發布了一個包含1200萬對話的大規模中文對話數據集LCCC,並開源了在LCCC上預訓練的大規模中文對話生成模型CDial-GPT。
  • 賽爾原創@Findings|中文預訓練語言模型回顧
    簡介以BERT為代表的預訓練語言模型在眾多自然語言處理任務中取得了顯著性能提升,並且隨後湧現出一批效果更優的預訓練語言模型。在本文中,我們將經典的預訓練語言模型應用在中文場景並使用相同的實驗設置去驗證它們在中文領域的性能表現。
  • 利用預訓練語言模型提供常識知識!中科院信工所雛鷹團隊在SemEval...
    近期一些工作表明,預訓練語言模型除了在語言理解上具有很好的性能之外,通過在大規模語料上進行學習,其內部已經習得了某些常識知識。因此,我們不僅僅將預訓練語言模型看做上下文編碼器,用以產生句子的表示,同時,我們還把預訓練語 模型看做知識存儲器,希望在問答過程中可以隱式地利用預訓練語言模型提供常識知識。
  • ACL 2018資源:100+ 預訓練的中文詞向量
    Github地址:github.com/Embedding/Chinese-Word-VectorsACL 2018:貢獻數據集的論文我們先來了解一些基本背景:ACL 2018將於7月15日至20日在澳大利亞墨爾本舉辦,作為自然語言處理領域的頂級國際會議,今年大會共收到1018份long papers和526篇short papers,並從中收錄了
  • 賽爾原創@Findings | 中文預訓練語言模型回顧
    簡介以BERT為代表的預訓練語言模型在眾多自然語言處理任務中取得了顯著性能提升,並且隨後湧現出一批效果更優的預訓練語言模型。在本文中,我們將經典的預訓練語言模型應用在中文場景並使用相同的實驗設置去驗證它們在中文領域的性能表現。
  • 【分詞】中文分詞的古今中外,你想知道的都在這裡
    中的"Hey"和"you"是需要與身後的標點分隔開的為什麼需要分詞?能不能不分詞?中文分詞難在哪?從古至今的分詞算法:詞典到預訓練從中到外的分詞工具對於中文來說,如果不進行分詞,那麼神經網絡將直接基於原始的漢字序列進行處理和學習。
  • [預訓練語言模型專題] BERT,開啟NLP新時代的王者
    前期回顧:[萌芽時代]、[風起雲湧]、[文本分類通用技巧] 、[GPT家族]感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅色框為前期腳印,綠色框為本期介紹,歡迎大家留言討論交流。
  • 預訓練語言模型:還能走多遠?
    預訓練語言模型還有哪些潛在的突破口?預訓練語言模型亟待解決的問題有哪些?在最後的討論環節,眾專家將圍繞這些話題進行討論。 韋福如對現有的語言模型預訓練工作進行總結和比較,然後介紹面向自然語言理解和生成任務的統一預訓練語言模型 UniLM 以及多語言預訓練模型 InfoXLM(演講內容請觀看CNCC回放視頻)。