7 Papers&Radios|字節跳動全球最大鋼琴MIDI數據集;谷歌新型...

2020-12-19 騰訊網

機器之心 & ArXiv Weekly Radiostation

參與:杜偉、楚航、羅若天

本周的重要論文包括字節跳動發布的全球最大鋼琴 MIDI 數據集,以及谷歌新型 Performer 架構。

目錄:

GiantMIDI-Piano: A large-scale MIDI dataset for classical piano music

A survey of embedding models of entities and relationships for knowledge graph completion

Optimal Subarchitecture Extraction For BERT

A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios

Rethinking Attention with Performers

Learning Invariances in Neural Networks

Overview of Graph Based Anomaly Detection

ArXiv Weekly Radiostation:NLP、CV、ML 更多精選論文(附音頻)

論文 1:GiantMIDI-Piano: A large-scale MIDI dataset for classical piano music

作者:Qiuqiang Kong、Bochen Li、Jitong Chen、Yuxuan Wang

連結:https://arxiv.org/abs/2010.07061

摘要:鋼琴轉譜是一項將鋼琴錄音轉為音樂符號(如 MIDI 格式)的任務。在人工智慧領域,鋼琴轉譜被類比於音樂領域的語音識別任務。然而長期以來,在計算機音樂領域一直缺少一個大規模的鋼琴 MIDI 數據集。

近期,字節跳動發布了全球最大的古典鋼琴數據集 GiantMIDI-Piano 。在數據規模上,數據集不同曲目的總時長是谷歌 MAESTRO 數據集的 14 倍。GiantMIDI-Piano 的用途包括但不限於:音樂信息檢索、自動作曲、智能音樂創作、計算音樂學等。

各種鋼琴 MIDI 數據集。

GiantMIDI-Piano 中前 100 位不同作曲家的曲目數量分布。

不同國家作曲家的數量。

推薦:字節跳動研究科學家表示:「GiantMIDI-Piano 將所有古典鋼琴作品轉錄成 MIDI 格式,並向全世界開放,此舉旨在推動音樂科技和計算機音樂學的發展」。

論文 2:A survey of embedding models of entities and relationships for knowledge graph completion

作者:Dat Quoc Nguyen

連結:https://arxiv.org/pdf/1703.08098.pdf

摘要:對於多樣化語言處理任務而言,有關實體及其關係事實的知識圖譜(KG)是非常有用的資源。但是,由於知識圖譜通常不完備,所以執行知識圖譜補全(knowledge graph completion)或鏈路預測(即預測不在知識圖譜中的關係是否有可能是真的)有助於彌補知識圖譜的不足。

在本文中,來自 VinAI 人工智慧研究所的學者 Dat Quoc Nguyen 對用於知識圖譜補全的實體和關係嵌入模型展開了全面綜述,總結了標準基準數據集上最新的實驗結果,並指出了未來潛在的研究發展方向

知識圖譜補全嵌入模型的評分函數 f(h, r, t)。

基準實驗數據集。

WN18 和 FB15k 基準上實體預測結果比較。

推薦:本文作者 Dat Quoc Nguyen 為 VinAI 人工智慧研究所的高級研究科學家。

論文 3:Optimal Subarchitecture Extraction For BERT

作者:Adrian de Wynter、Daniel J. Perry

連結:https://arxiv.org/pdf/2010.10499.pdf

摘要:在本文中,來自 Amazon Alexa 團隊的研究者將提取 BERT 最優子架構參數集這一問題細化為三個指標:推斷延遲、參數大小和誤差率。該研究證明:BERT 具備 strong AB^nC 屬性,可滿足這些條件組合,使上述算法表現得像 FPTAS。然後,研究者從一個高性能的 BERT 變體中提取了一個最優的子架構,稱為 Bort,其大小是 BERT-large 的 16%,在 CPU 上的推理速度提升到原來的 8 倍

研究者還在 GLUE、SuperGLUE 以及 RACE 公共 NLU 基準上對 Bort 進行了評估。結果表明,與 BERT-large 相比,Bort 在所有這些基準上都獲得了顯著提高,提升幅度從 0.3% 到 31% 不等。

GLUE 基準上的性能對比。

SuperGLUE 基準上的性能對比。

RACE 數據集上的性能對比。

推薦:研究者已經在 GitHub 上開源了訓練模型以及代碼。

論文 4:A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios

作者:Michael A. Hedderich、Lukas Lange、Heike Adel 等

連結:https://arxiv.org/pdf/2010.12309.pdf

摘要:在本文中,基於神經模型的基礎變化以及當前流行的預訓練和微調範式,來自德國薩爾蘭大學和博世人工智慧中心的研究者概述了低資源自然語言處理的有前途方法。他們首先討論了低資源場景的定義和數據可用性的不同維度,然後研究了訓練數據稀疏時賦能學習的方法。這包括創建數據增強和遠程監督等附加標籤數據的機制以及減少目標監督需求的可遷移學習設置。

論文中涉及的低資源方法匯總。

多語言 transformer 模型涵蓋的 100 萬 speaker 以上的語系。

6 種不同語言涵蓋的任務匯總。

推薦:定義「低資源」。

論文 5:Rethinking Attention with Performers

作者:Krzyszt 等 of Choromanski

連結:https://arxiv.org/pdf/2009.14794.pdf

摘要:來自谷歌、劍橋大學、DeepMind、阿蘭 · 圖靈研究所的研究者提出了一種新的 Transformer 架構——Performer。它的注意力機制能夠線性擴展,因此能夠在處理長序列的同時縮短訓練時間。這點在 ImageNet64 等圖像數據集和 PG-19 文本數據集等序列的處理過程中都非常有用。

Performer 使用一個高效的(線性)廣義注意力框架(generalized attention framework),允許基於不同相似性度量(核)的一類廣泛的注意力機制。該框架通過谷歌的新算法 FAVOR+( Fast Attention Via Positive Orthogonal Random Features)來實現,後者能夠提供注意力機制的可擴展低方差、無偏估計,這可以通過隨機特徵圖分解(常規 softmax-attention)來表達。該方法在保持線性空間和時間複雜度的同時準確率也很有保證,也可以應用到獨立的 softmax 運算。此外,該方法還可以和可逆層等其他技術進行互操作。

標準的稀疏化技術。

標準注意力矩陣包括每一對 entry 的相似度係數,由 query 和 key 上的 softmax 計算組成,表示為 q 和 k。

在 One Billion Word Benchmark (LM1B) 數據集上,研究者將原始預訓練 Transformer 的權重遷移至 Performer 模型,使得初始非零準確度為 0.07(橙色虛線)。但在微調之後,Performer 的準確度在很少的梯度步數之後迅速恢復。

推薦:這一方法超越了注意力機制,甚至可以說為下一代深度學習架構打開了思路。

論文 6:Learning Invariances in Neural Networks

作者:Gregory Benton、Marc Finzi、Pavel Izmailov、Andrew Gordon Wilson

連結:https://arxiv.org/pdf/2010.11882.pdf

摘要:平移的不變性(invariance)為卷積神經網絡注入了強大的泛化性能。然而,我們常常無法預先知道數據中存在哪些不變性,也不清楚模型在多大程度上對指定對稱群保持不變。

在這篇論文中,來自紐約大學柯朗數學科學研究所的研究者向讀者展示了,如何通過參數化增強分布以及優化網絡和增強參數的訓練損失來學習不變性和同變性。通過這一簡單過程,我們可以僅通過訓練數據從規模較大的增強空間中恢復圖像分類、回歸、分割和分子性質預測的正確集和不變性範圍。

研究者通過所提方法 Augerino 學習不變性的算法 1。

(a)Augerino 訓練示意圖;(b)損失函數和梯度變化曲線圖。

當訓練數據應用不同的增強時,CIFAR-10 數據集上訓練模型的測試準確度結果比較。

推薦:研究者表示,Augerino 是首個不需要驗證集或特殊損失函數的情況下,僅通過訓練數據即可以在神經網絡中學習對稱性的方法。

論文 7:Overview of Graph Based Anomaly Detection

作者:李忠 、靳小龍 、莊傳志、孫智

連結:http://www.jos.org.cn/jos/ch/reader/create_pdf.aspx?file_no=6100&journal_id=jos

摘要:近年來,隨著 web2.0 的普及,使用圖挖掘技術進行異常檢測受到人們越來越多的關注. 圖異常檢測在欺詐檢測、入侵檢測、虛假投票、殭屍粉絲分析等領域發揮著重要作用。

本文在廣泛調研國內外大量文獻以及最新科研成果的基礎上,按照數據表示形式將面向圖的異常檢測劃分成靜態圖上的異常檢測與動態圖上的異常檢測兩大類,進一步按照異常類型將靜態圖上的異常分為孤立個體異常和群組異常檢測兩種類別,動態圖上的異常分為孤立個體異常、群體異常以及事件異常三種類型。對每一類異常檢測方法當前的研究進展加以介紹,對每種異常檢測算法的基本思想、優缺點進行分析、對比,總結面向圖的異常檢測的關鍵技術、常用框架、應用領域、常用數據集以及性能評估方法,並對未來可能的發展趨勢進行展望。

分層提取特徵深度學習模型。

關係的張量表示 。

LSTM 模塊單位和層級結構。

推薦:本文在《軟體學報》上發表。

ArXiv Weekly Radiostation

機器之心聯合由楚航、羅若天發起的ArXiv Weekly Radiostation,在 7 Papers 的基礎上,精選本周更多重要論文,包括NLP、CV、ML領域各10篇精選,並提供音頻形式的論文摘要簡介,詳情如下:

本周 10 篇 NLP 精選論文是:

1. On the Transformer Growth for Progressive BERT Training. (from Jiawei Han)

2. Retrieve, Rerank, Read, then Iterate: Answering Open-Domain Questions of Arbitrary Complexity from Text. (from Christopher D. Manning)

3. DeSMOG: Detecting Stance in Media On Global Warming. (from Dan Jurafsky)

4. Understanding the Extent to which Summarization Evaluation Metrics Measure the Information Quality of Summaries. (from Dan Roth)

5. A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems. (from Young-Bum Kim)

6. Generating Plausible Counterfactual Explanations for Deep Transformers in Financial Text Classification. (from Yi Yang, Barry Smyth)

7. BARThez: a Skilled Pretrained French Sequence-to-Sequence Model. (from Michalis Vazirgiannis)

8. Meta-Learning for Domain Generalization in Semantic Parsing. (from Mirella Lapata)

9. MTGAT: Multimodal Temporal Graph Attention Networks for Unaligned Human Multimodal Language Sequences. (from Louis-Philippe Morency)

10. ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding. (from Yu Sun)

本周 10 篇 CV 精選論文是:

1. SAHDL: Sparse Attention Hypergraph Regularized Dictionary Learning. (from Yan-Jiang Wang)

2. DLDL: Dynamic Label Dictionary Learning via Hypergraph Regularization. (from Yan-Jiang Wang)

3. Hard Example Generation by Texture Synthesis for Cross-domain Shape Similarity Learning. (from Dacheng Tao)

4. Unsupervised deep learning for grading of age-related macular degeneration using retinal fundus images. (from Stella Yu)

5. Lightweight Generative Adversarial Networks for Text-Guided Image Manipulation. (from Philip H. S. Torr)

6. Point Cloud Attribute Compression via Successive Subspace Graph Transform. (from C.-C. Jay Kuo)

7. Deep Shells: Unsupervised Shape Correspondence with Optimal Transport. (from Daniel Cremers)

8. A Teacher-Student Framework for Semi-supervised Medical Image Segmentation From Mixed Supervision. (from Guisheng Wang)

9. AdaCrowd: Unlabeled Scene Adaptation for Crowd Counting. (from Yang Wang)

10. Permute, Quantize, and Fine-tune: Efficient Compression of Neural Networks. (from Raquel Urtasun)

本周 10 篇 ML 精選論文是:

1. BiTe-GCN: A New GCN Architecture via BidirectionalConvolution of Topology and Features on Text-Rich Networks. (from Jiawei Han)

2. Understanding the Pathologies of Approximate Policy Evaluation when Combined with Greedification in Reinforcement Learning. (from Richard S. Sutton)

3. Abstract Value Iteration for Hierarchical Reinforcement Learning. (from Rajeev Alur)

4. Robustifying Binary Classification to Adversarial Perturbation. (from Babak Hassibi)

5. Stochastic groundwater flow analysis in heterogeneous aquifer with modified neural architecture search (NAS) based physics-informed neural networks using transfer learning. (from Timon Rabczuk)

6. Analysis of three dimensional potential problems in non-homogeneous media with deep learning based collocation method. (from Timon Rabczuk)

7. Representation learning for improved interpretability and classification accuracy of clinical factors from EEG. (from Greg Hajcak)

8. Bridging Imagination and Reality for Model-Based Deep Reinforcement Learning. (from Honglak Lee)

9. Autoregressive Asymmetric Linear Gaussian Hidden Markov Models. (from Pedro Larra aga)

10. Shared Space Transfer Learning for analyzing multi-site fMRI data. (from Daoqiang Zhang, Russell Greiner)

相關焦點

  • 黑白鍵上的字節跳動:全球最大鋼琴MIDI數據集背後的故事
    聽眾裡的孔秋強來自字節跳動,作為 GiantMIDI-Piano(鋼琴轉譜)研究項目的牽頭人,是他的團隊創造了這首可以通過錄音轉譜、被自動演奏的MIDI琴曲。‍‍‍‍‍‍‍「之前從來沒想像過,播放一瞬間才感受到鋼琴家親自演奏的震撼,這種感覺非常滿足。」 不久後,一則「鋼琴轉譜」相關的科技新聞在國內外引發了關注。
  • ...音樂數據開放項目與信息檢索:從IMSLP到字節跳動GiantMIDI-Piano
    本期推送將介紹知名的國際音樂數字圖書館IMSLP(International Music Score Library Project)以及今年10月字節跳動發布的全球最大的古典鋼琴數據集GiantMIDI-Piano,並在結尾推薦信息檢索領域的經典書籍《信息檢索導論》。
  • 美國將字節跳動旗下TikTok出售令期限再次延長7天
    美國將字節跳動旗下TikTok出售令期限再次延長7天 站長之家(ChinaZ.com) 11月26日 消息:根據一份法律文件顯示,川普政府同意將
  • 全球資訊 | 字節跳動在治談出售 Topbuzz(海外版今日頭條)
    3.第25屆北京秋交會公布參展項目,近950部項目被收錄4.萬達集團:獨家冠名2020年至2029年國際田聯鈷石聯賽5.字節跳動在治談出售 Topbuzz6.Vfine Music與日本最大音樂版權交易平臺 Audiostock達成戰略合作7.漫威CEO凱文費奇將製作"星球大戰"電影
  • 出海日報 | 字節跳動或分拆TikTok;谷歌45億美金投資Jio;Flipkart...
    ·大·公·司· 港媒:字節跳動或分拆TikTok為美國公司 7月15日,《香港經濟日報》援引新聞業人士消息稱,TikTok母公司字節跳動正研究戰略替代方案,包括可能分拆Tiktok為美國公司。
  • 川普強迫字節跳動出售TikTok,微軟和谷歌有意收購
    川普沒有完全禁止該應用程式,而是要迫使字節跳動剝離其對TikTok的所有權。本質上意味著字節跳動將被迫出售該應用程式。字節跳動已經在考慮做某件事,以防止在其第二個國家被禁止。根據彭博社的一份報告,川普將籤署一項命令,指示讓字節跳動出售其對TikTok的所有權,而CFIUS(美國外資投資委員會)將負責確保這種交易的發生。這不是美國第一次操作這樣的事情。美國採取了很多類似的程序,迫使中國投資者北京崑崙萬維科技股份有限公司去年剝離了對Grindr的所有權。
  • 剝離TikTok後,字節跳動啟動國內上市已迫在眉睫
    更關鍵的是,TikTok已經成為字節跳動連接海外市場、布局全球業務的關鍵一環,有了TikTok的全球流量池,字節跳動的增長空間還有想像力。據路透社援引知情人士消息稱,字節跳動投資者對TikTok的收購估值為500億美元。如果不是美國橫插一手,字節跳動即使將國內業務與海外業務拆分上市,兩者也會相互拉動市值。
  • 7年滲透14大行業,最全詳解字節跳動全球投資版圖和野心
    其中 Musical.ly 是字節跳動目前為止投資金額最高的併購案,也是Tik Tok進行海外擴張的關鍵「跳板」。③從投資/併購輪次分布來看,字節跳動傾向以併購為主(26起屬於併購,佔比30%),A輪投資為輔(14起,數量16%)。④7年的投資布局,已經幫助字節跳動開疆闢土,進入了除媒體資訊之外的14個領域。
  • 頭條、抖音後,誰是字節跳動的新引擎?
    丈量「全球」,這些數據對於張一鳴來說可能爛熟於心。畢竟站在當時,他所領導的字節跳動是中國有史以來出海最成功的網際網路企業,旗下的明星產品TikTok風靡全球,全球下載量破20億次。 從日本到印度,再到澳大利亞和美國,每月有8億用戶在TikTok上刷著各種魔性短視頻,平均每個用戶每天打開該App 8次,共花費接近1個小時。
  • 字節跳動遭指控涉嫌「欺騙應聘者」,公司回應:正調查;全球最大色情...
    國內新聞字節跳動遭網友指控「欺騙應聘者」 公司回應:正調查12月16日消息,有微博網友發帖指控字節跳動「欺騙應聘者」。此事迅速引發大量關注,轉發超1.8萬,同時也掀起了大量網友對應聘陷阱的廣泛討論與不滿。
  • 字節跳動披上「白大褂」?
    據外媒報導,一向以算法內容為王牌的字節跳動,將使用 AI 技術研發新藥,而且正在全球招募人才。[圖片]招聘通知中表示,『我們正在尋找合適的候選人加入我們的團隊,在人工智慧 AI 算法的支持下進行藥物發現、製造的前沿研究。』
  • 字節跳動宣布關閉今日頭條海外版TopBuzz
    (圖/美聯社)近幾年在全球極熱門的抖音(TikTok)所屬的字節跳動公司宣布,正式關閉了其旗下的《今日頭條》的海外新聞應用程式TopBuzz。TopBuzz曾一度於2017年擊敗推特(Twitter)成為北美蘋果商店單日下載量最大的新聞應用程式,該公司於去年開始縮減營運規模,並尋求外國買家,但皆未達成交易。據《美國之音》報導,字節跳動周五(6月5日)發出在給路透社的一份聲明中說:「我們很高興在TopBuzz完成的使命,但我們決定其他業務領域將是我們未來的重心。」
  • 經濟學人全球頭條:北鬥正式開通,字節跳動回應中國業務上市,賈伯斯...
    6月23日,北鬥三號全球衛星導航系統最後一顆組網衛星成功發射,意味著30顆北鬥三號全球組網衛星全部到位,我國北鬥三號全球衛星導航系統星座部署全面完成。字節跳動被曝將推動國內業務上市 回應:不予置評據路透社報導,抖音、今日頭條母公司字節跳動正考慮推動國內業務上市,上市地點或在香港或上海,公司相對傾向於香港。
  • 騰訊系Joox和字節跳動系Resso的東南亞之戰,可能是今年東南亞最...
    編者按:本文來自微信公眾號「7點5度」(ID:Asia7_5),作者:7點5度,36氪經授權發布。 接下來你將看到: 2012年3月12日,張一鳴在植樹節這個日子,親手種下字節跳動這顆樹苗,經過了8年的悉心灌溉,字節跳動從一顆小樹苗長成參天大樹。
  • 字節跳動同意剝離TikTok美國業務?微軟會是接管者?知名博主...
    消息人士稱,根據新的交易提議,字節跳動將完全退出,微軟公司將接管在美業務。消息人士補充說,某些美國的字節跳動投資人可能有機會獲得該業務的少數股權。白宮沒有回應川普是否會接受字節跳動的讓步的置評請求。消息人士稱,根據字節跳動的新提議,微軟將負責維護所有美國用戶數據。
  • 快手春晚紅包互動達639億;字節跳動6.3億拿下《囧媽》;去「福克斯」品牌,20世紀電影公司誕生|Morketing周刊67期
    據悉,快手首創5輪紅包互動,向全球觀眾發出10億元現金紅包。當晚有221萬人搶到金額從66.6元到2020元不等的「錦鯉紅包」,紅包站外分享次數達到創紀錄的5.9億次,社交平臺上曬春晚錦鯉的話題閱讀量超過3000萬次。數據還顯示,當天快手春晚直播間累計觀看人次7.8億,最高同時在線人數2524萬。
  • 字節跳動為什麼一直在招人?
    而有趣的是,在這段時間裡,字節跳動仍然在大規模招人,號稱今年要到10萬人,新增4萬,相比當前接近翻倍。這個大規模,不只是指招聘需求的數量,還包括崗位範圍。這幾年,字節跳動很喜歡在全球範圍內海量招聘,不只是從海外往國內招人,還從國內往海外業務招人,或者為海外業務招聘當地人。如果只說招聘數量,字節跳動應該算是當前最激進的一家公司了。
  • 騰訊系Joox和字節跳動系Resso,可能是今年東南亞最激烈的一仗?
    目前為止,字節跳動的產品和服務已覆蓋全球150個國家和地區、75個語種,在40多個國家和地區位居應用商店總榜前列,擁有如TikTok、Resso、Lark、Vigo、Helo等海外產品。1.字節跳動的東南亞版圖
  • 7 Papers & Radios | GCN大佬公開博士論文;谷歌提出擴展型BERT架構
    在四個最大的 re-ID 基準數據集(即 Market1501、CUHK03、DukeMTMC 和 MSMT17)上進行的廣泛實驗不僅顯示了該方法的有效性,而且還為 re-ID 系統的魯棒性提供了未來改進的方向。Market-1501 和 CUHK03 上 AlignedReID 被攻擊前後的 Rank-10 結果。綠色代表正確匹配。
  • 大公司要聞速覽丨字節跳動人事大調整 蘋果自研晶片筆記本即將到來
    一線|抖音CEO張楠任字節跳動中國CEO 張利東擔任董事長3月12日消息,抖音CEO張楠將擔任字節跳動CEO,作為中國業務總負責人,全面協調公司中國業務的產品、運營、市場和內容合作,包括今日頭條、抖音、西瓜視頻、搜索等業務和產品。