Translated_AI 第三代神經網絡突破進展|一周AI最火學術

2020-12-20 大數據文摘

大數據文摘專欄作品

作者:Christopher Dossman

編譯:Vicky、雲舟

嗚啦啦啦啦啦啦啦大家好,AI Scholar Weekly欄目又和大家見面啦!

AI Scholar Weekly是AI領域的學術專欄,致力於為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每周AI學術的前沿資訊。

每周更新,做AI科研,每周從這一篇開始就夠啦!

本周關鍵詞:基於AI的X光、機器人抱抱、量化BERT模型

本周最佳學術研究

一種用於自動駕駛和映射任務的新數據

一組研究人員公開了一個覆蓋350多公裡,時間超過10個小時的汽車駕駛記錄。這些記錄在任何其他公共數據集中都是不存在的。

該數據集涵蓋了城市中心、郊區、高速公路、農村等多種環境,主要是在捷克共和國的布爾諾以及周邊地區記錄的。它包含來自高質量傳感器的數據——四個WUXGA攝像機、兩個3D雷射雷達、慣性測量單元、紅外攝像機和釐米級RTK GNSS接收器等。

這組數據的一個特別之處是使用了一個熱成像相機,可以在惡劣的天氣甚至是電閃雷鳴的條件下定位。此外,所有的數據都有精確的時間戳,精度在毫秒以下,可以被更廣泛地應用。

共享數據可以讓更多的研究人員參與到某一特定領域的研究進程中,通過使用新的數據和新鮮的想法來研究它,科研世界中的每一個研究者都會受益。

Brno數據集的原始格式非常易於閱讀,它還帶有一個能夠將數據轉換為ROS包的腳本,這些優勢使得它在推動自主駕駛發展的研究上具有重要的潛力。該研究也為基礎數據處理提供了工具,未來研究人員有望利用雷達、裡程計和神經網絡數據預處理傳感器對數據進行更新。

數據集:

https://github.com/Robotics-BUT/Brno-Urban-Dataset

原文:

https://arxiv.org/abs/1909.06897

BERT模型的新型量化方法

為了最小化BERT模型的性能退化,UCBerkeley的研究人員提出了一種有效量化Q-BERT的方案。

這項工作在廣泛的二階信息逐層解析(Hessian information)的指導下,BERT上應用混合精度量化。研究人員還提出了一種新的量化方案,稱為逐組量化,它可以不增加硬體複雜度的情況下減少精度退化。

研究還探討了阻礙BERT量化的因素,包括不同的量化方案和模塊(如嵌入、自關注和全連接層)如何影響NLP性能和模型壓縮比之間的平衡。

研究人員稱:「據我們所知,這是量化BERT以可接受的性能損失下實現超低比特的第一項工作。」

Q-BERT在情感分類、自然語言處理、對象識別、機器閱讀理解等四個下遊任務中,實現了13倍的權重壓縮比、4倍的激活量和4倍的嵌入量,而準確率的損失還不超過2.3%。

推理效率已經成為ML的一個重要問題,量化是通過減少表示數據的比特數來提高推理效率的。這樣的研究有很大的潛力,因為它們可以幫助類似智慧型手機這樣的算力受限設備實現更魯棒的模型。

原文:

https://arxiv.org/abs/1909.05840v1

Google AI:脈衝神經網絡中的時間編碼

在一個稱之為Ihmehimmeli的項目中,谷歌研究人員展示了人工脈衝神經網絡如何利用多種架構和學習設置來開發時間動態。他們提出了一個脈衝神經模型,該模型根據單個脈衝的相對時間來編碼信息。

「ImiMeMeli」一詞借用自芬蘭語,意思是一個複雜的工具或元素。研究人員解釋說,這個名字巧妙地描述了他們的目標,即開發具有時間編碼信息的複雜遞歸神經網絡結構。

一般來說,人工網絡缺乏像大腦那樣利用時間對信息進行編碼的能力。在這一模型中,研究人員使用帶有時間編碼方案的人工脈衝網絡,其中的特殊信息,例如更大的聲音或更亮的顏色,會導致更早的神經元脈衝。

在信息處理的層次結構中,獲勝的神經元是最先出現脈衝的神經元。這樣的編碼可以自然地實現一種分類方案,其中輸入特徵在它們對應的輸入神經元的脈衝時間中被編碼,而輸出特徵則由最早達到脈衝的輸出神經元編碼。

脈衝網絡受到了生物神經結構的啟發,通過研究脈衝網絡中的時間編碼,有可能創造出一種更節能、更複雜的神經結構發展模塊。

這一模型以多種方式對現有的脈衝網絡模型進行了顯著改進,並且可以解決使用時間編碼的標準機器學習基準問題。

此外,研究人員還證明了使用一種生物學上α突觸功能的合理性。Alpha函數包括一個衰減成分,它允許在神經元沒有被刺激時忘記較早的輸入,這有助於修正潛在的虛假脈衝。

這項工作為學術界提供了一個時間編碼原型,以創建面向遞歸和基於狀態的神經計算架構的基礎。

原文:

https://arxiv.org/abs/1907.13223

實現可擴展的多域會話代理

虛擬助手在提高工作效率和協作方面顯示出了無窮的潛力。因此,它們的研究與開發引起了很多人的興趣。但對於人工智慧領域的新興研究來說,總有一個無法迴避的挑戰——缺乏用於多個域的足夠數據。

為了應對這一挑戰,研究人員引入了一組新的模式引導對話(Schema-Guided Dialogue/SGD)數據集,其中包含了跨16域的超過16k的多域對話數據。

這一數據集在規模上超過了現有的面向任務的對話語料庫,同時也針對性地解決了與構建大型虛擬助理相關聯的挑戰。

隨著學術界和業界都在努力改進會話代理,不同領域的高質量數據至關重要。

據這項工作的研究人員稱,這是目前最大的面向公共任務的對話語料庫。所提出的單一對話系統能夠輕鬆支持大量服務,並有助於在不需要額外訓練數據的情況下促進新服務的簡單集成。

這項工作有可能進一步推動針對虛擬助理的研究,並幫助機器學習社區實現更強大的系統。具體而言,數據集可以用作意圖預測、語義填充、狀態跟蹤、語言生成以及大規模虛擬助理中其他任務的有效測試平臺。

參考代碼:

https://github.com/google-research-datasets/dstc8-schema-guided-dialogue

原文:

https://arxiv.org/abs/1909.05855v1

情感分類中的文本長度自適應

儘管在跨域/語言任務中,無監督遷移學習已經得到了很好的研究,但是跨長度遷移(CLT)仍然沒有得到足夠的探索。其中一個原因是長度差在分類中的可轉移性很小。

在本篇文章中,研究者表明,這並不是因為短/長文本在語境豐富度和單詞強度上存在差異。他們從不同領域和語言設計了新的基準數據集,並表示來自類似任務的現有模型無法應對跨文本長度遷移的獨特挑戰。

他們還引入了一個稱之為BaggedCNN的強基線模型,該模型將長文本視為包含短文本的包,並推薦了一個名為長度遷移網絡(LeTraNets)的最新CLT網絡:該CLT網絡針對短文本和長文本提供了一個使用多種訓練機制的雙向編碼系統。在評估中,BaggedCNN模型性能比傳統模型差,而LeTraNets則擊敗了所有模型。

文本可以作為一種極其豐富的信息源,這解釋了現代企業轉向文本分類以增強決策能力和自動化流程的原因。然而,由於其非結構化的性質,從文本中提取見解是具有挑戰性且耗時的。

文本分類器可用來組織、構造和分類幾乎任意東西。所提出的LeTraNets包括一個段級本文編碼器CNNbag用來捕獲段級文本特徵。

LeTraNets的實現:

https://github.com/rktamplayo/LeTraNets

原文:

https://arxiv.org/abs/1909.08306

其它爆款論文

基於說話者識別的實時文本顯示效果評估:

https://arxiv.org/abs/1909.08172

學習解決服務機器人的任務:

https://arxiv.org/abs/1909.06529

新的自動駕駛數據集,它是Pioneering KITTI數據集的10倍,是nuScenes數據集的3倍:

https://arxiv.org/abs/1909.07541

一組新的音樂源分離研究開放式數據集,其中包括樂器混合音和相應成分的高質量渲染:

https://arxiv.org/abs/1909.08494

幫助類人型機器人學會預測人類愛的抱抱並對其作出反應:

https://arxiv.org/abs/1909.07471

一組自動駕駛代理和映射任務的新數據:

https://arxiv.org/abs/1909.06897

AI頭條

華為宣布開發開源架構計劃,以滿足日益增長的計算能力和人工智慧要求:

https://www.zdnet.com/article/huawei-eyes-ai-prowess-invests-in-compute-power/

還有人工智慧驅動的X光?

https://www.aidaily.co.uk/articles/artificial-intelligence-powered-x-rays

從現在起,你可以從任意手機呼叫Google Assistant了:

https://www.livemint.com/technology/tech-news/you-can-now-call-the-google-assistant-from-any-phone-1568878562649.html

你有沒有想過,人工智慧的進步會讓社會變得更糟:

https://www.aidaily.co.uk/articles/risks-of-ai-sgmyf

相關焦點

  • 圖神經網絡快速爆發,最新進展都在這裡了
    近年來,圖神經網絡(GNNs)發展迅速,最近的會議上發表了大量相關的研究論文。本文作者正在整理一個GNN的簡短介紹和最新研究報告的摘要。希望這對任何準備進入該領域或試圖趕上最新技術進展的人有所幫助。
  • 36氪首發|針對稀疏化神經網絡開發高算力AI晶片,「Moffett AI」獲...
    36氪採訪到了Moffett AI CEO 王維,了解了公司目前的業務進展以及行業趨勢。Moffett AI於2018年在矽谷成立,公司以研發下一代高算力的AI晶片為核心業務,目前已經實現FPGA晶片小批量量產。公司正在開發雲端SoC及公有雲SaaS平臺服務。
  • AI大事件 | 機器學習增強人類記憶力,谷歌上線AI速成課
    過去的一周中AI圈都發生了什麼?大佬們討論了哪些問題?研究者們發布了哪些值得一讀的論文?又有哪些開源的代碼和資料庫可以使用了?快快跟隨文摘菌盤點過去一周AI大事件!Google表示,通過使用設備上的機器學習,該設備可以捕捉到人和寵物面部表情最合適的瞬間並進行拍攝。
  • AI/機器學習2018年度進展綜述
    事實上,很可能是在自然語言處理領域,我們看到了今年最有趣的進展。如果我必須選擇今年最令人印象深刻的AI應用程式,它們都是自然語言處理(而且都來自谷歌)。第一個是谷歌超級有用的智能架構,第二個是他們的雙工對話系統。
  • 多數語言ai方向不需要數學基礎
    沒必要糾結機器學習,資料庫都得會吧,這個行業很火,但還有很多知識你並不能很好的掌握和運用,因為你不是專業搞人工智慧,所以基礎很重要智能算法編程:矩陣分析、常微分方程、蒙特卡洛樹搜索。機器學習:隨機過程、矩陣相關數學、神經網絡。人工智慧:矩陣分析、機器學習。都在相關專業。想不想學習還要問別人?
  • CVPR 2019 神經網絡架構搜索進展綜述
    ——但是還為時過早。手動調參尋找神經網絡架構依然是個有趣的工作,尤其是對於那些帶了很多學生的導師而言(開玩笑啦~)。  神經網絡架構搜索(NAS)——前言那麼問題來了,神經網絡架構搜索(NAS)究竟是什麼?為什麼我們要了解NAS呢?
  • AI最大的進展是沒有任何進展?11專家深刻解讀2018年AI發展及來年預測
    GAN(生成對抗網絡)在嘗試像照片寫實主義(bigGANs)和視頻到視頻合成這樣難度較大的任務中仍然很受研究人員歡迎。開發了替代生成模型(如神經繪製模型),將生成和預測結合在一個網絡中,來促進半監督學習。研究人員將深度學習的應用擴展到地震預測、材料科學、蛋白質工程、高能物理和控制系統等許多科學領域。在這些案例中,領域知識和約束與學習相結合。
  • Jeff Dean親筆盤點谷歌AI 2019:日均2篇論文,縱橫16大方向
    一個主要的焦點是理解神經網絡中動態訓練的性質。在下面這項研究中,研究人員的實驗結果表明,縮放數據並行量可以讓模型收斂更快有效。論文地址:https://arxiv.org/pdf/1811.03600.pdf與數據並行性相比,模型並行性可以是擴展模型的有效方法。
  • 這次是移動端神經網絡框架基準測試項目MobileAIBench
    繼小米在6月宣布自研的移動端深度學習框架Mobile AI Compute Engine (MACE:https://github.com/xiaomi/mace)開源以來,小米近日又宣布開源移動端神經網絡框架基準測試項目
  • AI Cheat Sheet 人工智慧、神經網絡、機器學習、深度學習和大數據領域覆蓋最全的一份速查表
    這是最完整的列表,Big-O就在最後,享受吧.它提供了更高級別,更直觀的抽象集,無論後端科學計算庫如何,都可以輕鬆配置神經網絡。Keras Cheat Sheet: https://www.datacamp.com/community/blog/keras-cheat-sheet#gs.DRKeNMsKeras: https://en.wikipedia.org/wiki/KerasMachine Learning Cheat Sheet: https://ai.icymi.email
  • 深度 | 致研究者:2018 AI研究趨勢
    因此,人們無需在論文提交之後等待數月,就能很快地看到最新進展。第二,我們並不發表「順勢療法」的文章:如果你想讓文章被發表的文章,必須確保在文中展現最先進的技術,或是展示和現有最先進技術性能相近的新方法。而且,新方法必須在不同的指標中有所改進——其中包括速度、準確率、並行執行效率、數學證明的質量、處理不同大小數據集的能力等——即大大提高整體質量。
  • 神經網絡篇——從代碼出發理解BP神經網絡
    一提到反向傳播算法,我們就不自覺的想到隨機梯度下降、sigmoid激活函數和最讓人頭大的反向傳播法則的推導,即便是把反向傳播神經網絡的原理學了一遍,也還是一頭霧水,在這裡推薦一本小編認為把BP神經網絡講的最通透的教材《Python神經網絡編程》。
  • 這可能是今年最硬核的AI交流會,李飛飛、圖靈獎得主Pearl等共同探討AI未來
    繼李飛飛之後,巴西南裡奧格蘭德聯邦大學計算機科學教授Luís Lamb談到了他一周前在NeurIPS上提出的「神經符號AI」(neurosymbolic AI)。他說神經符號學的工作建立在Marcus《代數思維》一書中的概念之上,包括在神經網絡之上操縱符號的需求。「我們需要一種如Pearl的基於邏輯形式化和機器學習的基礎方法。」Lamb之後是Rich Sutton,DeepMind的傑出科學家,現代強化學習的奠基人。
  • 清華大學韓旭:神經關係抽取模型 | AI研習社71期大講堂
    深度學習在關係抽取中的研究在近幾年取得了廣泛關注,其中基於遠距離監督、帶有注意力機制的神經網絡模型成為解決問題的主要方法。在本次公開課中,講者將梳理神經模型在關係抽取中的發展脈絡,並分享相關領域的最新工作進展。
  • 我們拿到了全球最贊深度學習課程fast.ai授權,中文版免費放出!
    fast.ai 的課程亮點在於課程遵循自上而下的教授方法,帶你俯瞰深度學習最新應用的全貌。以最快的速度,搭建世界級的模型,將深度學習著手於實踐。無需數學與理論先序知識,對僅有少量開發基礎(比如大部分的程式設計師,或者花一周時間學會Python編程的同學)的學習者非常友好。
  • 打開人工智慧黑箱:看最新16篇可解釋深度學習文章,帶您了解增強AI透明性
    可解釋性卷積神經網絡   在視覺識別方面,卷積神經網絡毫無疑問取得的巨大的識別性能提升。如何增強對識別過程的透明性,是一個重要的問題。這一方面,相關學者做了很多工作。周博磊博士(香港中文大學)和張拳石博士(上海交通大學)在這方面做了大量的工作。
  • 矽谷最神秘的 AI 公司發明新型神經網絡,可破解一切驗證碼
    編者按:Vicarious 是矽谷最神秘的人工智慧公司之一,這家從 2010 年就專注通用人工智慧的公司,吸引了Facebook CEO扎克伯格、特斯拉CEO馬斯克、彼得.蒂爾和亞馬遜CEO傑夫.貝索斯的私人投資。該公司人工智慧團隊發明了一種新型的神經網絡,已經破解圖像驗證碼(CAPTCHA)。
  • 一文讀懂深度學習中的矩陣微積分,fast.ai創始人&ANTLR之父出品
    魚羊 編譯整理量子位 報導 | 公眾號 QbitAI想要真正了解深度神經網絡是如何訓練的,免不了從矩陣微積分說起。只需一點關於微積分和神經網絡的基礎知識,就能單刀直入,開始以下的學習啦。神經網絡中單個計算單元的激活函數,通常使用權重向量w與輸入向量x的點積來計算。神經網絡由許多這樣的單位組成。它們被組織成稱為層的神經元集合。上一層單元的激活成為下一層單元的輸入,最後一層中一個或多個單元的激活稱為網絡輸出。訓練神經元意味著對權重w和偏差b的選擇。我們的目標是逐步調整w和b,使總損失函數在所有輸入x上都保持較小。
  • 現場| AI Frontier大會開幕 最乾貨的AI應用不容錯過
    這是繼今年年初第一屆AI Frontier後大會方在一年內組織的第二次會議,前百度首席科學家、Coursera聯合創始人、Deepliarning.ai創始人吳恩達與來自Apple、Amazon、Google、NVIDIA、UBER、Alibaba、麥肯錫等公司的團隊與技術負責人向參會的1400餘名觀眾分享了在人工智慧、語音助手、機器人、深度學習、視頻理解、工業應用、無人駕駛、遊戲等領域的最新趨勢。
  • ai本身涉及到的東西有哪些?核心是什麼
    主要是lda,lr,神經影像這三個基礎內容。還有一些用戶自己維護的邏輯,比如根據關注用戶的時間戳推算用戶的年齡(分類問題),根據喜歡評論的用戶推算另一用戶的態度等等。這種前沿技術,現在只要想想就可以了,跟算法這些一點關係都沒有,不要指望能用代碼實現。ai本身涉及到的東西很多,比如語言,算法,機器學習,深度學習,神經網絡等等。