7 Papers&Radios|字節跳動全球最大鋼琴MIDI數據集;谷歌新型...

2020-12-09 騰訊網

機器之心 & ArXiv Weekly Radiostation

參與:杜偉、楚航、羅若天

本周的重要論文包括字節跳動發布的全球最大鋼琴 MIDI 數據集,以及谷歌新型 Performer 架構。

目錄:

GiantMIDI-Piano: A large-scale MIDI dataset for classical piano music

A survey of embedding models of entities and relationships for knowledge graph completion

Optimal Subarchitecture Extraction For BERT

A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios

Rethinking Attention with Performers

Learning Invariances in Neural Networks

Overview of Graph Based Anomaly Detection

ArXiv Weekly Radiostation:NLP、CV、ML 更多精選論文(附音頻)

論文 1:GiantMIDI-Piano: A large-scale MIDI dataset for classical piano music

作者:Qiuqiang Kong、Bochen Li、Jitong Chen、Yuxuan Wang

連結:https://arxiv.org/abs/2010.07061

摘要:鋼琴轉譜是一項將鋼琴錄音轉為音樂符號(如 MIDI 格式)的任務。在人工智慧領域,鋼琴轉譜被類比於音樂領域的語音識別任務。然而長期以來,在計算機音樂領域一直缺少一個大規模的鋼琴 MIDI 數據集。

近期,字節跳動發布了全球最大的古典鋼琴數據集 GiantMIDI-Piano 。在數據規模上,數據集不同曲目的總時長是谷歌 MAESTRO 數據集的 14 倍。GiantMIDI-Piano 的用途包括但不限於:音樂信息檢索、自動作曲、智能音樂創作、計算音樂學等。

各種鋼琴 MIDI 數據集。

GiantMIDI-Piano 中前 100 位不同作曲家的曲目數量分布。

不同國家作曲家的數量。

推薦:字節跳動研究科學家表示:「GiantMIDI-Piano 將所有古典鋼琴作品轉錄成 MIDI 格式,並向全世界開放,此舉旨在推動音樂科技和計算機音樂學的發展」。

論文 2:A survey of embedding models of entities and relationships for knowledge graph completion

作者:Dat Quoc Nguyen

連結:https://arxiv.org/pdf/1703.08098.pdf

摘要:對於多樣化語言處理任務而言,有關實體及其關係事實的知識圖譜(KG)是非常有用的資源。但是,由於知識圖譜通常不完備,所以執行知識圖譜補全(knowledge graph completion)或鏈路預測(即預測不在知識圖譜中的關係是否有可能是真的)有助於彌補知識圖譜的不足。

在本文中,來自 VinAI 人工智慧研究所的學者 Dat Quoc Nguyen 對用於知識圖譜補全的實體和關係嵌入模型展開了全面綜述,總結了標準基準數據集上最新的實驗結果,並指出了未來潛在的研究發展方向

知識圖譜補全嵌入模型的評分函數 f(h, r, t)。

基準實驗數據集。

WN18 和 FB15k 基準上實體預測結果比較。

推薦:本文作者 Dat Quoc Nguyen 為 VinAI 人工智慧研究所的高級研究科學家。

論文 3:Optimal Subarchitecture Extraction For BERT

作者:Adrian de Wynter、Daniel J. Perry

連結:https://arxiv.org/pdf/2010.10499.pdf

摘要:在本文中,來自 Amazon Alexa 團隊的研究者將提取 BERT 最優子架構參數集這一問題細化為三個指標:推斷延遲、參數大小和誤差率。該研究證明:BERT 具備 strong AB^nC 屬性,可滿足這些條件組合,使上述算法表現得像 FPTAS。然後,研究者從一個高性能的 BERT 變體中提取了一個最優的子架構,稱為 Bort,其大小是 BERT-large 的 16%,在 CPU 上的推理速度提升到原來的 8 倍

研究者還在 GLUE、SuperGLUE 以及 RACE 公共 NLU 基準上對 Bort 進行了評估。結果表明,與 BERT-large 相比,Bort 在所有這些基準上都獲得了顯著提高,提升幅度從 0.3% 到 31% 不等。

GLUE 基準上的性能對比。

SuperGLUE 基準上的性能對比。

RACE 數據集上的性能對比。

推薦:研究者已經在 GitHub 上開源了訓練模型以及代碼。

論文 4:A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios

作者:Michael A. Hedderich、Lukas Lange、Heike Adel 等

連結:https://arxiv.org/pdf/2010.12309.pdf

摘要:在本文中,基於神經模型的基礎變化以及當前流行的預訓練和微調範式,來自德國薩爾蘭大學和博世人工智慧中心的研究者概述了低資源自然語言處理的有前途方法。他們首先討論了低資源場景的定義和數據可用性的不同維度,然後研究了訓練數據稀疏時賦能學習的方法。這包括創建數據增強和遠程監督等附加標籤數據的機制以及減少目標監督需求的可遷移學習設置。

論文中涉及的低資源方法匯總。

多語言 transformer 模型涵蓋的 100 萬 speaker 以上的語系。

6 種不同語言涵蓋的任務匯總。

推薦:定義「低資源」。

論文 5:Rethinking Attention with Performers

作者:Krzyszt 等 of Choromanski

連結:https://arxiv.org/pdf/2009.14794.pdf

摘要:來自谷歌、劍橋大學、DeepMind、阿蘭 · 圖靈研究所的研究者提出了一種新的 Transformer 架構——Performer。它的注意力機制能夠線性擴展,因此能夠在處理長序列的同時縮短訓練時間。這點在 ImageNet64 等圖像數據集和 PG-19 文本數據集等序列的處理過程中都非常有用。

Performer 使用一個高效的(線性)廣義注意力框架(generalized attention framework),允許基於不同相似性度量(核)的一類廣泛的注意力機制。該框架通過谷歌的新算法 FAVOR+( Fast Attention Via Positive Orthogonal Random Features)來實現,後者能夠提供注意力機制的可擴展低方差、無偏估計,這可以通過隨機特徵圖分解(常規 softmax-attention)來表達。該方法在保持線性空間和時間複雜度的同時準確率也很有保證,也可以應用到獨立的 softmax 運算。此外,該方法還可以和可逆層等其他技術進行互操作。

標準的稀疏化技術。

標準注意力矩陣包括每一對 entry 的相似度係數,由 query 和 key 上的 softmax 計算組成,表示為 q 和 k。

在 One Billion Word Benchmark (LM1B) 數據集上,研究者將原始預訓練 Transformer 的權重遷移至 Performer 模型,使得初始非零準確度為 0.07(橙色虛線)。但在微調之後,Performer 的準確度在很少的梯度步數之後迅速恢復。

推薦:這一方法超越了注意力機制,甚至可以說為下一代深度學習架構打開了思路。

論文 6:Learning Invariances in Neural Networks

作者:Gregory Benton、Marc Finzi、Pavel Izmailov、Andrew Gordon Wilson

連結:https://arxiv.org/pdf/2010.11882.pdf

摘要:平移的不變性(invariance)為卷積神經網絡注入了強大的泛化性能。然而,我們常常無法預先知道數據中存在哪些不變性,也不清楚模型在多大程度上對指定對稱群保持不變。

在這篇論文中,來自紐約大學柯朗數學科學研究所的研究者向讀者展示了,如何通過參數化增強分布以及優化網絡和增強參數的訓練損失來學習不變性和同變性。通過這一簡單過程,我們可以僅通過訓練數據從規模較大的增強空間中恢復圖像分類、回歸、分割和分子性質預測的正確集和不變性範圍。

研究者通過所提方法 Augerino 學習不變性的算法 1。

(a)Augerino 訓練示意圖;(b)損失函數和梯度變化曲線圖。

當訓練數據應用不同的增強時,CIFAR-10 數據集上訓練模型的測試準確度結果比較。

推薦:研究者表示,Augerino 是首個不需要驗證集或特殊損失函數的情況下,僅通過訓練數據即可以在神經網絡中學習對稱性的方法。

論文 7:Overview of Graph Based Anomaly Detection

作者:李忠 、靳小龍 、莊傳志、孫智

連結:http://www.jos.org.cn/jos/ch/reader/create_pdf.aspx?file_no=6100&journal_id=jos

摘要:近年來,隨著 web2.0 的普及,使用圖挖掘技術進行異常檢測受到人們越來越多的關注. 圖異常檢測在欺詐檢測、入侵檢測、虛假投票、殭屍粉絲分析等領域發揮著重要作用。

本文在廣泛調研國內外大量文獻以及最新科研成果的基礎上,按照數據表示形式將面向圖的異常檢測劃分成靜態圖上的異常檢測與動態圖上的異常檢測兩大類,進一步按照異常類型將靜態圖上的異常分為孤立個體異常和群組異常檢測兩種類別,動態圖上的異常分為孤立個體異常、群體異常以及事件異常三種類型。對每一類異常檢測方法當前的研究進展加以介紹,對每種異常檢測算法的基本思想、優缺點進行分析、對比,總結面向圖的異常檢測的關鍵技術、常用框架、應用領域、常用數據集以及性能評估方法,並對未來可能的發展趨勢進行展望。

分層提取特徵深度學習模型。

關係的張量表示 。

LSTM 模塊單位和層級結構。

推薦:本文在《軟體學報》上發表。

ArXiv Weekly Radiostation

機器之心聯合由楚航、羅若天發起的ArXiv Weekly Radiostation,在 7 Papers 的基礎上,精選本周更多重要論文,包括NLP、CV、ML領域各10篇精選,並提供音頻形式的論文摘要簡介,詳情如下:

本周 10 篇 NLP 精選論文是:

1. On the Transformer Growth for Progressive BERT Training. (from Jiawei Han)

2. Retrieve, Rerank, Read, then Iterate: Answering Open-Domain Questions of Arbitrary Complexity from Text. (from Christopher D. Manning)

3. DeSMOG: Detecting Stance in Media On Global Warming. (from Dan Jurafsky)

4. Understanding the Extent to which Summarization Evaluation Metrics Measure the Information Quality of Summaries. (from Dan Roth)

5. A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems. (from Young-Bum Kim)

6. Generating Plausible Counterfactual Explanations for Deep Transformers in Financial Text Classification. (from Yi Yang, Barry Smyth)

7. BARThez: a Skilled Pretrained French Sequence-to-Sequence Model. (from Michalis Vazirgiannis)

8. Meta-Learning for Domain Generalization in Semantic Parsing. (from Mirella Lapata)

9. MTGAT: Multimodal Temporal Graph Attention Networks for Unaligned Human Multimodal Language Sequences. (from Louis-Philippe Morency)

10. ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding. (from Yu Sun)

本周 10 篇 CV 精選論文是:

1. SAHDL: Sparse Attention Hypergraph Regularized Dictionary Learning. (from Yan-Jiang Wang)

2. DLDL: Dynamic Label Dictionary Learning via Hypergraph Regularization. (from Yan-Jiang Wang)

3. Hard Example Generation by Texture Synthesis for Cross-domain Shape Similarity Learning. (from Dacheng Tao)

4. Unsupervised deep learning for grading of age-related macular degeneration using retinal fundus images. (from Stella Yu)

5. Lightweight Generative Adversarial Networks for Text-Guided Image Manipulation. (from Philip H. S. Torr)

6. Point Cloud Attribute Compression via Successive Subspace Graph Transform. (from C.-C. Jay Kuo)

7. Deep Shells: Unsupervised Shape Correspondence with Optimal Transport. (from Daniel Cremers)

8. A Teacher-Student Framework for Semi-supervised Medical Image Segmentation From Mixed Supervision. (from Guisheng Wang)

9. AdaCrowd: Unlabeled Scene Adaptation for Crowd Counting. (from Yang Wang)

10. Permute, Quantize, and Fine-tune: Efficient Compression of Neural Networks. (from Raquel Urtasun)

本周 10 篇 ML 精選論文是:

1. BiTe-GCN: A New GCN Architecture via BidirectionalConvolution of Topology and Features on Text-Rich Networks. (from Jiawei Han)

2. Understanding the Pathologies of Approximate Policy Evaluation when Combined with Greedification in Reinforcement Learning. (from Richard S. Sutton)

3. Abstract Value Iteration for Hierarchical Reinforcement Learning. (from Rajeev Alur)

4. Robustifying Binary Classification to Adversarial Perturbation. (from Babak Hassibi)

5. Stochastic groundwater flow analysis in heterogeneous aquifer with modified neural architecture search (NAS) based physics-informed neural networks using transfer learning. (from Timon Rabczuk)

6. Analysis of three dimensional potential problems in non-homogeneous media with deep learning based collocation method. (from Timon Rabczuk)

7. Representation learning for improved interpretability and classification accuracy of clinical factors from EEG. (from Greg Hajcak)

8. Bridging Imagination and Reality for Model-Based Deep Reinforcement Learning. (from Honglak Lee)

9. Autoregressive Asymmetric Linear Gaussian Hidden Markov Models. (from Pedro Larra aga)

10. Shared Space Transfer Learning for analyzing multi-site fMRI data. (from Daoqiang Zhang, Russell Greiner)

相關焦點

  • 字節跳動成Facebook、谷歌和亞馬遜員工跳槽最熱門選擇
    字節跳動正成為美國最受求職者歡迎的科技公司,尤其是Facebook、亞馬遜、谷歌和優步員工跳槽的熱門選擇。這是著名科技論壇Blind對其站內搜索和瀏覽記錄分析得出的結果。該論壇還稱,字節跳動擊敗所有競爭對手成為其平臺上搜索量增長最快的科技公司。
  • 字節跳動為TikTok尋全球總部:新加坡倫敦都柏林備選
    來源:澎湃新聞字節跳動為TikTok尋找全球總部:新加坡倫敦都柏林備選字節跳動被曝正考慮為旗下短視頻App TikTok尋找全球總部。華爾街日報指出,估值高達750億美元的字節跳動,在TikTok受到美國立法者密切關注,被指對美國存在國家安全威脅的情況下,希望重新塑造TikTok的品牌形象。擁有一個在海外的全球總部將使得TikTok更貼近快速增長中的東南亞、歐洲和美國市場。
  • 字節跳動出海史,張一鳴如何在全球跳動字節?
    截至2019年底,字節跳動旗下產品全球月活躍用戶數超過15億,業務覆蓋150個國家和地區、75個語種。在海外,Tik Tok也已經成為了一種潮流,成為新一代年輕人時尚文化的代名詞。 本月的這一重大組織結構調整,是否預示著字節跳動將以更大步伐走向全球市場?在這之前,它又經歷了怎樣的國際化之路?與其他中國新一代網際網路公司相比,字節跳動的出海策略有什麼不同?
  • ...字節跳動加速全球化;OYO全球裁員5000人;滴滴進軍巴拿馬,布局...
    由張利東擔任字節跳動(中國)董事長,抖音CEO張楠擔任字節跳動(中國)CEO,張一鳴作為字節跳動的全球CEO,未來會把精力更多地放在歐美和其它市場,重點完善國際管理團隊並親自把關教育等創新業務。2015 年,字節跳動正式開始全球化部署,第一次啟動了全球化團隊,有了外籍員工。
  • 出海日報 | 字節跳動或分拆TikTok;谷歌45億美金投資Jio;Flipkart...
    ·大·公·司· 港媒:字節跳動或分拆TikTok為美國公司 7月15日,《香港經濟日報》援引新聞業人士消息稱,TikTok母公司字節跳動正研究戰略替代方案,包括可能分拆Tiktok為美國公司。
  • 攪動全球音樂市場,字節跳動使出了組合拳
    如果說Tik Tok和Spotify因其產品屬性的不同,美、印、中市場又因市場容量、成熟度有所差異而使得這些數據比較價值存疑的話,那麼字節跳動的另一款新產品音樂流媒體Resso的誕生,則串聯起了這些原來看似毫無關聯的數據,也標誌著字節跳動正式加入到音樂流媒體版圖的較量之中。
  • 迪士尼前高管「空降」,擔任字節跳動COO及TikTok全球...
    5月19日,字節跳動官方發文稱,凱文·梅耶爾(Kevin Mayer)將擔任字節跳動營運長兼TikTok全球執行長,他將於2020年6月1日正式入職字節跳動。字節跳動稱,凱文·梅耶爾將負責TikTok、Helo、音樂、遊戲等業務,同時負責字節跳動全球職能部門(不含中國),包括企業發展、銷售、市場、公共事務、安全、法務等。
  • 揭秘字節跳動海外的「豪華高管團」,估值1000億美金,下一步怎麼走?
    一方面,業務上相互獨立,海外數據存儲在海外,審核人員放在海外,最大限度的符合海外監管要求; 另一方面,人事上相互獨立,張一鳴之下,字節跳動中國由董事長張利東、CEO張楠領導,而字節跳動全球則是廣泛邀請國際知名公司的高層入職,大量聘請當地員工。
  • 字節跳動最新估值1800億美元?一周資訊|趣頭條|全民k歌|字節跳動|...
    消息稱紅杉資本和KKR牽頭字節跳動最新一輪融資,對字節跳動的估值為1800億美元;百度或延長收購YY的交易時間;微信視頻號小商店正式接入魔筷cps帶貨系統;趣頭條被傳正與騰訊阿里洽談出售事宜;編程教育將納入中小學相關課程。下面艾奇菌帶你一一來看。
  • 頭條、抖音後,誰是字節跳動的新引擎?
    丈量「全球」,這些數據對於張一鳴來說可能爛熟於心。畢竟站在當時,他所領導的字節跳動是中國有史以來出海最成功的網際網路企業,旗下的明星產品TikTok風靡全球,全球下載量破20億次。 從日本到印度,再到澳大利亞和美國,每月有8億用戶在TikTok上刷著各種魔性短視頻,平均每個用戶每天打開該App 8次,共花費接近1個小時。
  • 字節跳動為什麼一直在招人?
    而有趣的是,在這段時間裡,字節跳動仍然在大規模招人,號稱今年要到10萬人,新增4萬,相比當前接近翻倍。這個大規模,不只是指招聘需求的數量,還包括崗位範圍。這幾年,字節跳動很喜歡在全球範圍內海量招聘,不只是從海外往國內招人,還從國內往海外業務招人,或者為海外業務招聘當地人。如果只說招聘數量,字節跳動應該算是當前最激進的一家公司了。
  • 迪士尼前高管凱文·梅耶爾加盟字節跳動 出任COO
    【TechWeb】5月19日消息,字節跳動宣布,任命凱文·梅耶爾(Kevin Mayer)為字節跳動營運長(COO)兼TikTok全球執行長。此任命將於2020年6月1日生效。
  • 川普將禁止TikTok在美國運營;字節跳動回應赴港上市;微信正式...
    本周(2020.7.26-8.1)重要出海事件如下:川普將禁止TikTok在美國運營,傳微軟正談判收購;字節跳動回應國內業務香港上市;華為在全球智慧型手機市場首次奪冠;滴滴出行將進入俄羅斯市場;日本建議限制使用TikTok等中國App;歐洲叫車應用Bolt進軍泰國;Uber
  • 騰訊系Joox和字節跳動系Resso的東南亞之戰,可能是今年東南亞最...
    編者按:本文來自微信公眾號「7點5度」(ID:Asia7_5),作者:7點5度,36氪經授權發布。 接下來你將看到: 2012年3月12日,張一鳴在植樹節這個日子,親手種下字節跳動這顆樹苗,經過了8年的悉心灌溉,字節跳動從一顆小樹苗長成參天大樹。
  • 成為巨頭後,字節跳動如何對抗自身重力?
    此次調整前,字節跳動已經在業務層面多路出擊:繼宣布旗下的辦公套件飛書免費開放後,又有消息傳出稱,字節跳動最快將於本月推出類似谷歌G Suite的企業辦公協作工具;同時,手遊上線,進攻騰訊後院;「頭條搜索」獨立APP推出,正面迎擊百度。
  • ...TikTok母公司字節跳動、Discorde、Facebook及其子公司WhatsApp...
    2020-12-15 08:13:11來源:FX168 【FTC要求字節跳動、FB等解釋如何收集使用用戶數據】12月15日,美國聯邦貿易委員會(FTC)於當地時間周一宣布,將要求九家科技公司分享它們如何收集和使用用戶數據的信息。
  • 榜單|字節跳動張一鳴 2019 世界最大全球獨角獸
    根據數據智庫CB Insights公布的全球獨角獸企業名單顯示,今年共有326家公司上榜,其中新公司119家。而這些企業的總估值接近1.1萬億美元,融資總額超過2710億美元。在這326家獨角獸企業中,有七家是「二十倍獨角獸」企業,即公司估值達到或超過200億美元,而他們的估值合計3210億美元,佔全球獨角獸企業總估值的29.5%。
  • ...是7億中國用戶數據隱私?字節跳動回應;遇緊急情況深航航班已...
    每經編輯:王鑫1丨「TikTok背後是7億中國用戶數據隱私」在B站廣泛傳播,字節跳動回應8月9日,北京字節跳動科技有限公司通過其官方微頭條帳號發布公告:近期,所謂「TikTok背後是7億中國用戶數據隱私」的謠言。
  • 字節跳動考慮中國業務在香港或上海上市
    毋庸置疑,TikTok 是一款全球火熱的現象級產品,它操作簡單,跨越文化地域,已經成為手機上製作和觀看短視頻最佳的方式。現在,抖音和 TikTok 已經成為字節跳動重要的估值支柱。而字節跳動這家成立8年的「創業公司」,也成為了全球最有影響力的公司之一。
  • 賣掉TikTok 後,「三張而治」的字節跳動會出現怎樣的變局
    由於字節跳動沒有按業務線劃分事業部,而是分為三個核心職能部門:技術、增長和商業化,分別負責留存、拉新和變現,這既是字節的技術中臺,也是業務中臺,這個中臺就是字節的生產流水線,它不僅輸出產品,還輸出技術和運營。而其中,規模最大的商業化團隊,便由張利東負責,據財新此前報導,字節跳動的商業化團隊就有 1 萬多人。