AAAI 2019 | 自動機器學習計算量大!這種多保真度優化技術是走向...

2021-01-15 機器之心Pro

機器之心編輯

作者:Yi-Qi Hu, Yang Yu, Wei-Wei Tu, Qiang Yang, Yuqiang Chen , Wenyuan Dai

參與:路雪

自動機器學習一直以來都以計算量大而著稱,貝葉斯優化等以高效著稱的方法也都沒能很好解決此問題,機器學習開發者很多還是依賴於經驗與直觀理解進行手動調參。近日南京大學、第四範式和香港科技大學提出了一種多保真度自動機器學習方法,其在優化過程中利用修正後低保真度評價來代替原始的高保真度評價,而大大減少了總體評價的代價。

自動機器學習能夠大幅度降低機器學習門檻,使非機器學習甚至非計算機領域能夠快速使用機器學習算法,因而越來越受到關注。目前求解自動機器學習問題的常規方法是將機器學習過程形式化為一個黑盒優化任務,優化的目標是學習過程在學習任務上的某一評價指標。

由於自動機器學習的優化目標具有不連續、不可導等數學性質,所以一些搜索和非梯度優化算法被用來求解該問題。此類算法通過採樣和對採樣的評價進行搜索,往往需要大量對採樣的評價才能獲得比較好的結果。然而,在自動機器學習任務中評價往往通過 k 折交叉驗證獲得,在大數據集的機器學習任務上,獲得一個評價的時間代價巨大。這也影響了優化算法在自動機器學習問題上的效果。所以一些減少評價代價的方法被提出來,其中多保真度優化就是其中的一種。

多保真優化的設定是有多種不同保真度的評價方式。低保真度評價上,獲得評價結果代價小,但是評價結果不準確;在高保真度評價上,評價結果準確,但是獲得評價的代價很大。自動機器學習天然吻合這樣的優化設定,通過隨機選取部分數據集作為評價中訓練數據集的方式可以構建不同保真度的評價。但是 PAC 理論可知,在部分數據集上的評價結果存在一定的偏差,本工作提出了一種利用修正後低保證度評價來代替高保真度評價,用於優化中,大大減少了評價的代價,提高了優化效果。

本工作利用有限的高保真度評價樣本學習一個預測器,用於預測高低保真度評價之間的殘差,在優化中使用低保真度評價和殘差預測值之和代替高保真度評價。關鍵難點在於高保真度評價有限,用於訓練預測器的樣本極少,本工作提出了一種系列化遷移擴展的方式,預訓練數個基預測器,然後線性組合基預測器的方式得到最終的殘差預測器。通過這種方式解決了訓練樣本較少的問題。

多保真度技術是大規模自動機器學習優化問題走向實用的關鍵技術,大幅度降低評價代價為優化算法提供了更多探索的機會,使得優化算法能夠發揮最大效能求解自動機器學習問題。

論文:Multi-Fidelity Automatic Hyper-Parameter Tuning via Transfer Series Expansion

論文地址:http://lamda.nju.edu.cn/huyq/papers/mfopt-19.pdf

論文提出的方法

我們提出一種通用的多保真度優化框架,此框架通過簡單的變換即可應用於任意非梯度優化(derivative-free optimization)方法中。該框架的主要思路是:基於一些高保真度的觀察結果,學習殘差預測器以糾正優化過程中低保真度評價的偏差。由於高保真度評價有限,因此訓練準確的預測器非常困難。為了解決該問題,我們提出了系列化遷移擴展(Transfer Series Expansion,TSE)方法,TSE 通過遷移多個基預測器的方式來訓練最終的殘差預測器。Ψ 指最終的預測器,ψ = {ψ_1, ψ_2, . . . , ψ_k} 指一系列基預測器。通過線性組合的方式將 ψ 擴展為 Ψ。

多保真度優化框架

我們設計了一個適用於任意非梯度優化方法的通用多保真度框架,主要研究最小化問題。非梯度優化的關鍵步驟是如何生成新樣本 x。現在令 SampleO 表示非梯度優化方法中生成採樣的步驟,其中 O 為非梯度優化方法。大多數非梯度優化方法都屬於基於模型(model-based)的方法,採樣步驟包括在(X, f)的建模過程和基於模型的採樣過程,不同的模型有不同的採樣步驟。

在多保真度優化中,它會引入低保真度評價 f_L 以減少總的評價成本。該框架還會學習一個預測器 Ψ 以估計高保真度和低保真度評價之間的殘差。隨後在修正後的評價(f_L+Ψ)上執行優化,這樣我們在修正後評價的優化結果,在真實的高保真度評價上仍有很好的表現。

系列化遷移擴展 (TSE)

在 Algorithm 2 中,用於訓練 Ψ 的數據集實例數量很少,因為 f_H 的評價成本高。TSE 可以在訓練數據集規模很小的情況下使 Ψ 收斂。

實驗

我們基於分類優化方法,利用 TSE 實現了多保真度框架,並將其命名為 TSESRACOS。在實驗部分,我們使用 TSESRACOS 在一些真實數據集上對 LightGBM 調參。

表 1:數據集信息。|D| 表示數據集 D 中的樣本數。驗證數據集是通過對 D^train 中的樣本以 10% 的採樣律進行隨機採樣獲得。r_L 和 r_M 是

的構建低保真度訓練樣本時的子採樣率。

表 2:多個對比方法的 AUC 性能和整體時間(wall-clock time)對比。LF-Eval 和 HF-Eval 表示最優解的低保真度和高保真度評價值、Test 表示最優解的泛化性能、加粗數字表示最好的 AUC 分數。TSETRANS 方法將 Miniboone 數據集上的基預測器遷移到其他數據集。因此 TSETRANS 在 Miniboone 上的結果為空。HF-ONLY^ 表示 HF-ONLY 在大型數據集上的超參優化在消耗一定的時間後提前停止。

圖 1:總體時間 AUC 曲線圖。實線表示高保真度值曲線,虛線表示低保真度值曲線,帶圓點的線表示優化的目標函數曲線。同樣顏色的實線和虛線是在同樣樣本上的高保真度和低保真度評價值。X 軸展示的時間為 LF-ONLY 所消耗的時間。

圖 2:在每一個預測器訓練中,平均回歸預測器誤差 |f_L+Ψf_H| 的直方圖。僅對比 TSESRACOS(綠色)和 RFSRACOS(藍色)的預測誤差。X 軸表示殘差預測器訓練數據集中的樣本個數。

本文為機器之心編輯,轉載請聯繫本公眾號獲得授權。

相關焦點

  • 快手將GPU推理在商業化場景全量落地,機器成本優化超20%
    機器之心發布 機器之心編輯部 快手商業化進程開始加速,這對底層計算能力提出挑戰。快手決定將 GPU 推理在商業化場景全量落地。
  • 自動生成硬體優化內核:陳天奇等人發布深度學習編譯器TVM
    本文由機器之心編輯,「機器之心」專注生產人工智慧專業性內容,適合開發者和從業者閱讀參考。點擊右上角即刻關注。有了 TVM,業界與學界開發者們可以快速、輕鬆地在各個系統(包括手機、嵌入式設備與低功耗晶片)上部署深度學習應用程式,同時無須擔心資源與速度的限制。「TVM 作為神經網絡和硬體後端之間的共同層,消除了為每類設備或伺服器優化各自基礎架構的需要。」
  • 陳天奇等人提出TVM:深度學習自動優化代碼生成器
    TVM 是由華盛頓大學在讀博士陳天奇等人提出的深度學習自動代碼生成方法,去年 8 月機器之心曾對其進行過簡要介紹。該技術能自動為大多數計算硬體生成可部署優化代碼,其性能可與當前最優的供應商提供的優化計算庫相比,且可以適應新型專用加速器後端。
  • MIT Taco項目:自動生成張量計算的優化代碼,深度學習加速效果提高...
    使用稀疏數據進行分析的算法最終做了大量的加法和乘法,而這大部分計算是無效的。通常,程式設計師通過編寫自定義代碼來優化和避免零條目,但這種代碼通常編寫起來複雜,而且通常適用範圍狹窄。雷鋒網發現,在ACM的系統、程序、語言和應用會議(SPLASH)上,麻省理工學院、法國替代能源和原子能委員會的研究人員和Adobe研究院的研究者們最近提出了一個針對稀疏數據自動生成優化代碼的系統。
  • 人工智慧、機器學習及認知計算初學者指南
    時至今日,AI 已開始發揮它的真正潛力,專注於應用並交付了深度學習與認知計算等技術。本文將帶您探索 AI 及其子領域的一些重要方面。首先我們來了解一下 AI 發展的時間表,然後深入了解各個要素。在過去十年裡,認知計算開始出現,該技術旨在構建可以學習且能夠與人類進行自然交互的系統。在電視競賽節目 Jeopardy! 上,IBM Watson™ 擊敗了世界級的對手,展示了認知計算的獨特能力。
  • Alink:基於Flink的機器學習平臺
    分享嘉賓:楊旭 阿里巴巴 資深算法專家編輯整理:朱榮導讀:Alink是基於Flink流批一體的機器學習平臺,提供一系列算法,可以幫助處理各種機器學習任務,比如統計分析、機器學習、實時預測、個性化推薦和異常檢測。
  • 研究人員提出優化方法跟蹤自動駕駛軌跡 減少跟蹤誤差/降低計算量
    而為了讓自動駕駛汽車真正被社會所接受,自動駕駛汽車的乘客體驗必須與人類駕駛的車輛一樣舒適,包括能夠選擇「最佳」或更舒適的方式達到目的地。事實證明,尋找「最佳」或更舒適的方式是一個極其困難的計算挑戰,不過美國亞利桑那州立大學(Arizona State University)研究人員們卻想出了解決方案。
  • 增材製造中應用機器學習的現狀與展望(一)
    1.2機器學習  ML是一種人工智慧技術,可以允許機器或者系統從資料庫中進行自動學習,並作出決策或者預測,而不需要進行複雜地編程。在研究領域,ML在醫療診斷、材料性能預測、智能製造、自動駕駛、自然語言處理和目標識別中應用較普遍。ML算法通常分為三大類,即監督、無人監督和強化學習。
  • 優化數學題計算量的常用方法,掌握了考試效率事半功倍
    大家好,歡迎走進周老師數學課堂,每天進步一點點,堅持帶來大改變。今天是2019年3月10日,我分享的內容是優化數學題計算量的常用方法。計算能力是思維能力和運算技能的結合,是中考數學考查的四大能力之一,在各章內容中都有體現,中考中有70%以上的試題都具有一定的計算量,所以通過研究試題特點、了解算理、改進計算方法,減少中考試題的計算是贏得考試成功的重要途徑。老師結合近幾年的中考試題和自己的教學體會,揭示如何優化中考數學中的計算量,以便給同學們的複習提供幫助。
  • 二階梯度優化新崛起,超越 Adam,Transformer 只需一半迭代量
    目前,無論是從理論還是應用層面來說,機器學習中的優化都是以隨機梯度下降等一階梯度方法為主。囊括二階梯度和/或二階數據統計的二階優化方法雖然理論基礎更強,但受限於計算量、內存和通信花銷等因素,二階梯度優化方法的普及度不高。
  • 深度| 機器的自我進化:走向自主編程的人工智慧(附提交ICLR 2017的...
    原標題:深度 | 機器的自我進化:走向自主編程的人工智慧(附提交ICLR 2017的自動編程論文) 選自ICLR、VentureBeat 機器之心編譯
  • 專訪騰訊雲機器學習平臺技術負責人:揭秘騰訊深度學習平臺DI-X背後...
    那麼最新推出的DI-X和騰訊去年開源的大數據框架Angel以及Mariana究竟有何聯繫?和其它平臺相比,DI-X又有何特點呢?為此,雷鋒網採訪了騰訊T4專家、騰訊雲機器學習平臺技術負責人Andy。之前公司內部的大數據平臺,包括存儲,計算和分析……都已經日趨成熟了,在此之上,需要往上再走一步,進行機器學習和人工智慧,所以這樣的平臺就應運而生了。平臺在內部運行1年左右之後,效果還不錯,於是騰訊雲就啟動了這個項目(DI-X),將內部平臺遷移到騰訊雲上。
  • 第四範式陳雨強:提高機器學習維度的兩大法寶
    在數據足夠充足的情況下,沿著模型優化和特徵優化的兩條路徑切入,可以有效地提高機器學習的模型維度。沿著模型優化——即走 「深」的路徑是由學術界主導,優化模型的科學家們為了方便實驗,降低了工程實現能力的要求,大部分模型可單機加載。工業界在按照該思路優化時,往往採用觀察數據、找到規律、根據規律做模型假設、對模型假設中的參數用數據擬合、將擬合的結果上線測試等步驟。
  • 科學家將機器學習與層析成像技術結合,以了解材料立體結構和界面
    在美國能源部(DOE)的阿貢國家實驗室(Argonne National Laboratory)的一項新研究中,研究人員提出了一種基於機器學習的新技術,以揭示材料中掩埋的界面和邊緣的秘密。他們沒有使用來自可能具有不明確邊界的材料庫的圖像,而是從貓和狗的圖片開始,以幫助機器學習算法學習圖像中的邊緣。海諾寧說:「在訓練算法時,這些形狀對我們來說很簡單,但對計算機來說卻很複雜,這提供了有用的試驗依據。」然後,海諾寧和他的同事們通過一組分子動力學模擬,證明了機器學習算法的準確性。
  • 深度學習優化入門:Momentum、RMSProp 和 Adam
    原標題:深度學習優化入門:Momentum、RMSProp 和 Adam 雷鋒網 AI 研習社按:本文為雷鋒網字幕組編譯的技術博客,原標題 Intro to optimization in deep learning: Momentum, RMSProp
  • 聚焦快速機器學習訓練算法,UC伯克利尤洋189頁博士論文公布
    機器之心報導編輯:蛋醬、小舟這份 189 頁的博士學位論文,凝結了尤洋在快速機器學習訓練算法領域的研究心血。過去十年,深度學習應用領域的數據量迅速增長,使得深度神經網絡(DNN)的訓練時間拉長。而這已經成為機器學習開發者和研究者面臨的瓶頸問題。
  • 深度學習技術和卷積神經網絡(CNN)讓機器視覺識別更智能
    隨著人工智慧技術的進步,深度學習技術(DL)和卷積神經網絡技術(CNN)領域的人工智慧(AI)被引入到機器視覺圖像處理系統的應用中來,從而幫助機器學習和機器檢測缺陷更加高效,使機器視覺識別的過程更加精確。也讓使用這些技術的企業可以從智能化中獲得更高的生產經營效益。
  • 機器視覺人臉識別技術在智能商業中的應用
    以Google為例,它是通過數據來產生了搜索的技術,從而形成的一種產品,通過點擊的轉換最終又產生了數據,通過這種數據再次去學習並優化結果,而相比掃地機器人也許算不上人工智慧產品,因為它並不能夠通過數據和掃地的經驗行為來優化自身算法而提升效率。
  • 2019機器之心人工智慧年度獎項公布:關注創業先鋒,聚焦產品案例
    超參數科技成立於 2019 年 1 月,超參數科技的創始團隊主要來自人工智慧和遊戲行業、以及海內外知名院校的專家學者。核心成員在深度學習、強化學習等前沿技術領域有長期鑽研,結合大系統工程的能力,團隊具有 AI 技術在遊戲領域大規模商業化落地的經驗。
  • 從星際2深度學習環境到神經機器翻譯,上手機器學習這些開源項目必...
    機器學習是用數據來學習、概括、預測的研究。近幾年,隨著數據的開發、算法的改進以及硬體計算能力的提升,機器學習技術得以快速發展,不斷延伸至新的領域。算法:如何處理和分析數據機器學習算法可利用數據執行特定的任務,最常見的機器學習算法有如下幾種:1.監督學習。監督學習使用以及標註過的和結構化的數據,通過制定一組輸入數據集合所需的輸出,機器可以學習如何識別目標並且映射到其他的學習任務上。