今日Paper|3D門控遞歸融合;雙注意力GAN;通用目標檢測器;無監督域...

2021-01-20 雷鋒網

目錄

用於語義場景完成的3D門控遞歸融合

用於大姿態人臉正面化的雙注意力GAN

Universal-RCNN:基於可轉移圖R-CNN的通用目標檢測器

用於圖像深度估計的無監督域自適應

嵌套命名實體識別的神經分層模型

用於語義場景完成的3D門控遞歸融合

論文名稱:3D Gated Recurrent Fusion for Semantic Scene Completion

作者:Liu Yu /Li Jie /Yan Qingsen /Yuan Xia /Zhao Chunxia /Reid Ian /Cadena Cesar

發表時間:2020/2/17

論文連結:https://paper.yanxishe.com/review/12074?from=leiphonecolumn_paperreview0226

推薦原因

這篇論文要解決的是語義場景補全任務中的數據融合問題。

RGB圖像包含對象的紋理細節,而深度圖像能捕獲與形狀補全任務具有高度相關性的幾何線索,因此同時使用RGB和深度圖像可以進一步提高語義場景補全模型的精度。基於此,這篇論文提出了名為GRFNet的3D門控遞歸融合網絡,該網絡可以自適應地選擇並通過使用門和存儲模塊來融合深度圖像和RGB的相關信息。在單級融合的基礎上,這篇論文還進一步提出了一種多級融合策略,可以對網絡中不同級之間的相關性進行建模。在兩個基準數據集上進行的實驗證明了GRFNet在語義場景補全任務中進行數據融合優於現有的方法。

用於大姿態人臉正面化的雙注意力GAN

論文名稱:Dual-Attention GAN for Large-Pose Face Frontalization

作者:Yin Yu /Jiang Songyao /Robinson Joseph P. /Fu Yun

發表時間:2020/2/17

論文連結:https://paper.yanxishe.com/review/12073?from=leiphonecolumn_paperreview0226

推薦原因

這篇論文要解決的是人臉正面化的問題。

人臉正面化為人臉數據的增強提供了一種有效的方法,進一步提高了極端姿勢場景下的人臉識別性能。這篇論文提出了一種新的雙注意力生成對抗網絡(DA-GAN),通過在GAN訓練過程中同時捕捉上下文相關性和局部一致性來實現真實感人臉正面化。DA-GAN包含一種基於自注意力的生成器,來集成具有遠距離依賴性的局部特徵以產生更好的特徵表示和一個基於面部注意力的新型判別器,用於強調人臉區域的局部特徵,從而增強了合成正面人臉的真實感。

Universal-RCNN:基於可轉移圖R-CNN的通用目標檢測器

論文名稱:Universal-RCNN: Universal Object Detector via Transferable Graph R-CNN

作者:Xu Hang /Fang Linpu /Liang Xiaodan /Kang Wenxiong /Li Zhenguo

發表時間:2020/2/18

論文連結:https://paper.yanxishe.com/review/12072?from=leiphonecolumn_paperreview0226

推薦原因

這篇論文要解決的是通用對象檢測的問題。

這篇論文提出了一種名為Universal-RCNN的新的通用對象檢測器,結合圖遷移學習可在多個數據集之間傳播相關語義信息,以達到語義一致性。Universal-RCNN首先通過整合所有類的所有高級語義表示來生成全局語義池。然後,域內推理模塊在空間感知圖卷積網絡指引下的一個數據集中學習並傳播稀疏圖表示。最後,Universal-RCNN中的域間傳輸模塊利用所有域之間的多種傳輸依賴關係,通過全局參與和傳輸語義上下文來增強區域特徵表示。大量實驗表明,Universal-RCNN明顯優於現有的多分支模型,並在多對象檢測基準上達到最新水平。

用於圖像深度估計的無監督域自適應

論文名稱:Unsupervised Domain Adaptation for Depth Prediction from Images

作者:Tonioni Alessio /Poggi Matteo /Mattoccia Stefano /Di Stefano Luigi

發表時間:2019/9/9

論文連結:https://paper.yanxishe.com/review/11952?from=leiphonecolumn_paperreview0226

推薦原因

論文的目標是利用無監督算法,將在大量合成數據上預訓練的深度模型遷移到沒有標籤監督的目標域上來。作者首先利用傳統的深度估計算法為目標域的圖像標記含有噪聲的偽標籤,並生成一個逐像素的置信圖。論文的創新點在於提出了一種新穎的置信度引導損失函數,它用來衡量哪些像素需要納入深度模型預測出的深度值與傳統方法計算出的深度值的誤差中。作者還將控制用來計算損失的像素值的超參數設置成一個可學習的變量,進一步提升了模型的泛化能力。論文被TPAMI接收,為無監督深度估計算法提供了新的解決思路。

嵌套命名實體識別的神經分層模型

論文名稱:A Neural Layered Model for Nested Named Entity Recognition

作者:Meizhi Ju /Makoto Miwa /Sophia Ananiadou

發表時間:2018/6/1

論文連結:https://paper.yanxishe.com/review/11812?from=leiphonecolumn_paperreview0226

推薦原因

1. 本文解決了大多數命名實體識別系統不能有效處理內部嵌套實體的問題,如在生物醫藥領域,嵌套實體出現非常頻繁,使用本文提出的方法可以在此背景下捕獲更細粒度的語義信息。

2. 本文提出了一種動態分層模型,能夠充分利用內部實體信息來加強外部實體的識別。模型基於由LSTM和CRF組成的flat NER層,因此模型能夠捕獲輸入序列的上下文表示,並在不依賴於特徵工程的情況下在flat NER層上全局解碼預測標籤。該模型針對於特定數據集(具有多種類別和嵌套的實體),嵌套的實體越多層次越深,實驗效果越好。

3. 本文所提出的模型針對自然語言處理中命名實體識別問題,能夠改善嵌套實體識別的情況,而實體識別是之後如實體對齊,構建知識圖譜等問題的基礎,因而意義很大。

論文作者團隊招募

為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現。致力成為國內外前沿研究成果學習討論和發表的聚集地,也讓優秀科研得到更為廣泛的傳播和認可。

我們希望熱愛學術的你,可以加入我們的論文作者團隊。

加入論文作者團隊你可以獲得

1.署著你名字的文章,將你打造成最耀眼的學術明星

2.豐厚的稿酬

3.AI 名企內推、大會門票福利、獨家周邊紀念品等等等。

加入論文作者團隊你需要:

1.將你喜歡的論文推薦給廣大的研習社社友

2.撰寫論文解讀

雷鋒網雷鋒網雷鋒網

相關焦點

  • 今日Paper | 空間注意力網絡;深度信念網絡;GhostNet;位置預測等
    用單個深度學習模型代替移動相機ISP基於深度信念網絡來識別阿爾茲海默症的蛋白質組危險標誌物分層時空LSTM在位置預測中的應用GhostNet:廉價運營帶來的更多功能  VSGNet:基於圖卷積的人體物體交互檢測的空間注意力網絡
  • 無需標註數據集,自監督注意力機制就能搞定目標跟蹤
    想要了解什麼是自監督注意力機制,我們可能需要先去了解什麼是光流估計(optical flow estimation),以及它為何被人類和計算機視覺系統作為一種目標跟蹤方法。一般來說,嬰兒在 2 至 3 個月大的早期階段就具有目標跟蹤的本能。然而,從神經生理學的層面上講,人類視覺系統的實際工作機制仍然有些模糊。
  • 今日Paper|虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論...
    為了幫助各位學術青年更好地學習前沿研究成果和技術,AI科技評論聯合Paper 研習社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關於人工智慧的前沿學術論文供你學習參考。
  • 今日Paper|強化學習;可重構GANs;BachGAN;時間序列分類等
    目錄通過強化學習對抽取的摘要進行排序用於抽象文本摘要的基於深度遞歸生成解碼器用於可控圖像合成的學習布局和風格的可重構GANsBachGAN:基於顯著物體布局的高解析度圖像合成時間序列分類:近鄰vs深度學習模型通過強化學習對抽取的摘要進行排序論文名稱:Ranking Sentences
  • 今日Paper | 問答系統;3D人體形狀和姿勢;面部偽造檢測;AdderNet等
    (paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關於人工智慧的前沿學術論文供你學習參考。以推薦理由:本文建議使用Wikipedia作為獨特的知識源來解決開放域問題的解答:任何事實類問題的答案都是Wikipedia文章中的文本範圍。
  • 超全的GAN PyTorch+Keras實現集合
    作者們展示了對抗自編碼器如何應用於半監督分類、圖像內容和風格解析、無監督聚類、降維算法和數據可視化等內容。作者還實現了一些實驗,並在生成建模和半監督分類任務中取得了很好的性能。作者提出了一種新方法,在沒有配對示例的限制下,學習從源域 X 到目標域 Y 的圖像變換。其目標是學習一個映射:X→Y,通過對抗損失使得 G(X)中的圖像分布和 Y 的分布是不可區分的。由於這個映射是高度受限的,作者將其和一個逆映射 F:Y→X 耦合,並引入了一個周期一致損失來迫使 F(G(X))≈X(反之亦然)。
  • 今日Paper|蚊子叫聲數據集;提高語音識別準確率;對偶注意力推薦...
    為了幫助各位學術青年更好地學習前沿研究成果和技術,AI 研習社重磅推出【今日 Paper】欄目, 每天都為你精選關於人工智慧的前沿學術論文供你學習參考。以下是今日的精選內容——目錄提高有噪聲情況下的語音識別準確率——而且用常見工具就可以基於對偶圖注意力網絡多方面社交影響的推薦系統想研究蚊子、阻止瘧疾,你需要一個蚊子叫聲數據集用於類遞增目標檢測的交叉數據集訓練卷積均值:一種簡單的用於照度估計的卷積神經網絡提高有噪聲情況下的語音識別準確率——而且用常見工具就可以論文名稱:Improved Robust
  • GAN快速入門資料推薦:17種變體的Keras開原始碼,附相關論文
    、分離圖像的風格和內容、無監督聚類、降維、數據可視化等方面。//arxiv.org/abs/1703.10593>論文原作者開源了Torch和PyTorch的實現代碼,詳情見項目主頁:https://junyanz.github.io/CycleGAN/DCGAN深度卷積生成對抗網絡模型是作為無監督學習的一種方法而提出的
  • 今日Paper | 梯度剪切;命名實體識別;自然語言處理;免強度函數學習...
    from=leiphonecolumn_paperreview0212推薦原因時間點過程是一類有效的用於建模連續時間域的異步事件序列方法。該方法在事件預測,因果分析,圖建模等方向有著廣泛的應用。使用該方法的一個核心問題是條件強度函數的設計。
  • 實習期完成,無圖像對和域標籤,博士小哥實現完全無監督的圖像轉換
    因而,越來越多的研究人員開始探索無監督設置下的圖像到圖像轉換方法。2019 年 5 月,英偉達的一項研究探索 few-shot 無監督的圖像到圖像轉換算法,並實現了逼真的轉換效果。近日,韓國延世大學等機構的研究者實現了完全無監督設置下的圖像到圖像轉換。
  • 怎樣辨別生物和人工神經網絡中的遞歸?
    這是一種遞歸的類型,在深度學習實踐者討論時總是意味著遞歸僅限於一個層。 (請注意,可能存在多個循環層,但層間連接僅為前饋。)高級應用程式通常依賴於人為設計的修改,以適應門控機制。在某種意義上,這允許它在接收到某個輸入或交付某個輸出時「轉儲」循環層的狀態內存。作為一個類比,當你完成一個想法時,可能會希望扔掉那個想法,這樣它就不會和你的下一個想法混淆了。值得注意的是,最常見和有效的門控層之一是長短期內存(LSTM)層,最初創建於1997年,遠遠早於基於rnnn的應用程式的。
  • 今日Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經網絡...
    (paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關於人工智慧的前沿學術論文供你學習參考。以from=leiphonecolumn_paperreview0108推薦理由:人們如何決定一項任務要持續多長時間,何時切換以及執行另一項任務?理解支持任務交錯的機制是認知科學的一個長期目標。先前的工作提出了貪婪的啟發法和最大化邊際收益率的政策。然而,目前尚不清楚這種策略如何適應於提供多種任務,轉換成本昂貴且回報延遲的日常環境。
  • 異父異母的三胞胎:CycleGAN, DiscoGAN, DualGAN
    這篇paper就是討論如何用獨自的語料來幫助翻譯。事實上,dualgan這篇paper的出發點就來源於此,並且這三篇文章的中心創新點(cycle consistentcy)就是dual learning中的想法。(雖然cyclegan似乎不知道這篇論文,並沒有引用dual learning)CycleGAN的出發點更抽象。
  • 今日Paper|深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
    AED:無監督表示學習通過自編碼變換而不是自編碼數據基於注意力的視點選擇網絡用於光場視差估計基於CNN的中文lexicon rethinking NER模型使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練論文名稱:Training
  • GAN(生成對抗網絡)萬字長文綜述
    具體包括有監督的方法和無監督的方法。 有監督方法 典型的有監督方法有 CGAN 和 ACGAN。 CGAN 將隨機噪聲 z 和類別標籤 c 作為生成器的輸入,判別器則將生成的樣本/真實樣本與類別標籤作為輸入。以此學習標籤和圖片之間的關聯性。
  • 萬字長文解讀GAN:從基本概念、原理到實際應用
    二者結構如下 (左邊為 CGAN,右邊為 ACGAN):2.1.2 無監督方法相比於有監督方法Unpaired two domain data對於無成對訓練數據的圖像翻譯問題,一個典型的例子是 CycleGAN。CycleGAN 使用兩對 GAN,將源域數據通過一個 GAN 網絡轉換到目標域之後,再使用另一個 GAN 網絡將目標域數據轉換回源域,轉換回來的數據和源域數據正好是成對的,構成監督信息。
  • 萬字綜述之生成對抗網絡(GAN)
    具體包括有監督的方法和無監督的方法。 有監督方法典型的有監督方法有 CGAN 和 ACGAN。 CGAN 將隨機噪聲 z 和類別標籤 c 作為生成器的輸入,判別器則將生成的樣本/真實樣本與類別標籤作為輸入。以此學習標籤和圖片之間的關聯性。
  • 今日Paper|點雲分類框架;多模式Transformer;神經網絡;有序神經元等
    >用於行人重識別的三元組在線實例匹配丟失用於DSTC8 AVSD挑戰的帶指針網絡的多模式TransformerPointAugment:一種自動增強的點雲分類框架尋找稀疏、可訓練的神經網絡有序神經元:將樹結構集成到遞歸神經網絡中