谷歌AutoML創造者Quoc Le:未來最好的人工智慧模型將由機器生成

2020-11-24 百家號

機器之心原創

作者:Tony Peng

過去十年,谷歌在人工智慧領域的重重突破,有很大一部分和 Quoc Le 有關。這位出生在越南的谷歌研究員像是一個人工智慧的信徒,堅信機器學習能夠解決一切讓人煩惱的問題,即使存在失敗的可能性,他也樂在其中。AutoML 則是他最新的研究方向,也是被認為將改變整個深度學習發展進程的技術。正如此,我們希望從和 Le 的採訪中探尋圍繞在 AutoML 的真相和未來。在這場一個小時的採訪裡,筆者印象最深刻的是下面的兩句話:1. 我們做到了自動化機器學習,之後就只是規模化的問題。2. 我預計未來兩年內,至少在計算機視覺領域內,最好的網絡會是 AutoML 生成的,而不是人工設計的。

作為谷歌大腦的創始成員和 AutoML 的締造者之一,Quoc Le 算得上是人工智慧研究領域的原住民了。

2011 年在史丹福大學讀博時,Le 和他的老師吳恩達以及谷歌大腦的研究人員一起,基於千萬張 YouTube 圖像開發了一個能夠識別貓的無監督學習系統;2014 年,他將深度學習技術應用在自然語言理解任務上,提出了能將文本轉換為向量表徵、基於循環神經網絡的 Seq2Seq 學習模型,將機器翻譯的前沿水平又向前推進了一步。這為谷歌之後在自然語言機器翻譯方面的突破奠定了基礎。

自 2014 年以來,Le 開始將目光轉向了自動化機器學習(AutoML)。構建機器學習模型的過程需要反覆的人工調整:研究者會在初始的模型上嘗試不同的架構和超參數,在數據集上評估模型的表現,再回頭進行修改;這個過程會反覆進行,直到達到最優。

Le 認為可以把它想成是一個試錯問題,繼而通過機器學習解決:「可以看看強化學習以及機器學習下圍棋的方式,基本上就是試錯。」

2016 年,Le 與一位谷歌研究者合作發表了一篇開創性的論文《Neural Architecture Search with Reinforcement Learning》。其核心思想類似於搭建積木:機器從一個定義空間中選取自己所需的組件來構建神經網絡,然後使用一種試錯技術,也就是—強化學習—來提升其準確度。這種方法得到了令人驚喜的結果,機器所生成的模型的表現可媲美人工調節的最佳模型。

Le 的研究成果催生了 Google Cloud AutoML,能讓機器學習知識有限的開發者也能訓練出高質量的模型。不出所料,AutoML 迅速成為了今年最熱門的研究主題之一,科技巨頭與創業公司紛紛跟隨谷歌的腳步,投入這項新技術。

Google Cloud 在今年年初發布了 AutoML 視覺,之後又發布了 AutoML 翻譯和語言

機器之心近日視頻採訪了 Quoc Le 博士。這位謙遜的 36 歲越南裔人工智慧專家談到了他的靈感來源、AutoML 背後的技術和前方的道路及其在機器學習領域內扮演的重要新角色。這位站在許多變革性技術背後的人有怎樣的見解呢?請看後文。為了簡潔和明晰,採訪內容進行過適當編輯。

在即將於 11 月 9 日 於加利福尼亞州聖何塞舉辦的 AI Frontiers 會議上,Quoc Le 將發表主題為「使用機器學習自動化機器學習」的演講,特別將關注神經架構搜索和自動數據增強 AutoAugment。

靈感

您在何時開始想要設計一種新的神經架構搜索方法?是什麼啟發了你?

那是在大概 2014 年的樣子,這個過程隨時間逐漸發生的。我是一位機器學習工程師。當你一直以來都在做神經網絡方面的工作時,你會意識到很多工作都需要人工調整,也就是人們說的「超參數」——神經網絡的層數、學習率、網絡中所使用的層的類型。AI 研究者往往會根據某些原則開始調整,然後這些原則會隨時間變得不那麼有效,他們再嘗試不同的策略。

我關注了 ImageNet 競賽中的某些進展,也見證了谷歌的 Inception 網絡的發展。我便開始思考我想做些什麼,但那時的想法還不清晰。我喜歡卷積網絡,但我不喜歡一個關於卷積網絡的事實:卷積網絡中的權重並不彼此共享。所以我就想,也許我應該開發一種全新的機制,能真正學會如何在神經網絡中共享權重。

隨著我的工作推進,我對此的直觀理解也越來越多,我開始發現:研究者們所做的事情是將一些已有的構建模塊組合到一起,然後嘗試它們的效果。他們看到準確度有一定提升。然後就說:「很好,也許我剛引入了一個好想法。試試看保留我剛剛引入的好東西,但用某些新東西替換舊有的部分會怎樣呢?」他們就這樣繼續這一過程,這個領域的專家可能會嘗試數百種架構。

在 2016 年左右,我當時在思考如果這個過程需要如此之多的試錯,那我們就應該使用機器學習來自動化,因為機器學習本身也是基於試錯的。可以看看強化學習以及機器學習下圍棋的方式,基本上就是試錯。

我研究了做成這件事將需要多少真正的計算資源。我的想法是,如果是一個人類,那可能會需要一百個網絡來試錯,因為人類已經有大量直覺知識和大量訓練了。如果你使用算法來做這件事,那你的速度可能會慢上一兩個數量級。我認為實際上慢一兩個數量級也不算太差,而且我們已經有充足的計算資源來做這件事了。所以我決定與一位培訓生(Barret Zoph,現在已是谷歌大腦的一位研究者)一起啟動這個項目。

我之前沒想到這會如此地成功。我當時認為我們能做到的最佳結果可能是人類水平的 80%。但這位培訓生非常優秀,他實際上做到了與人類媲美的水平。

許多人告訴我:「你花費了如此之多資源,就只為達到了人類水平?」但我從這個實驗中看到的是現在我們可以做到自動化機器學習。這只是一個規模問題。所以如果你的規模更大,你就能得到更好的結果。我們繼續開展了第二個項目,採用了甚至更大的規模並在 ImageNet 上進行了研究,然後開始得到了真正非常出色的結果。

您有這個想法有告訴 Jeff Dean 嗎?他是什麼反應?

嗯,他非常支持。實際上我也想感謝 Jeff Dean 在這個想法的初期所提供的幫助。

我記得在 2014 年,有一次和 Jeff 吃了一頓午餐,他也分享了非常類似的看法。他認為如果仔細了解那時候的深度學習研究者所做的事情,就會發現他們當時會花大量時間來在超參數等方面調整架構。我們認為一定存在一種自動化這一過程的方法。Jeff 喜歡擴展和自動化困難的東西,這是大多數科技人員不願做的事情。Jeff 給我提供了鼓勵,我也最終決定去做這個。

谷歌 AI 負責人 Jeff Dean

神經架構搜索與您之前的研究有何不同?

這不同於我之前在計算機視覺領域的工作。這段研究經歷源自一個想法,並且也在隨時間成長。我也有過一些錯誤想法。比如,我曾想自動化和重建卷積,但那是個錯誤的直覺想法。也許我應該接受卷積,然後使用卷積來構建其它東西?這對我來說是一個學習過程,但不算太壞。

技術

研究者或工程師需要哪些種類的組件來構建神經網絡模型?

因應用各異,確實會有所不同,所以我們先來看看計算機視覺領域——即使是在計算機視覺領域內也有很多事物。通常而言,卷積網絡會有一個圖像輸入,有一個卷積層,然後一個池化層,之後還有批歸一化。然後還有激活函數,你還可以決定連接到新的層的 skip connection 等等。

在卷積模塊內,你還有很多其它選擇。比如在卷積中,你必須決定過濾器的大小:1x1? 3x3? 5x5? 你還必須決定池化和批量大小的規格。至於 skip connection,你可以選擇從第一層到第十層,也可以選擇從第一層到第二層。所以需要做的決定非常多,也就存在大量可能的架構。可能性也許能達到數萬億,但人類現在只會檢查這些可能中的一小部分。

一種常見的卷積架構

您的第一篇 AutoML 相關論文是《Neural Architecture Search (NAS) with Reinforcement Learning(使用強化學習的神經架構搜索)》。自那以後,您的團隊已經採用了進化算法並開始使用漸進式神經架構搜索。您能詳細談談這些改進背後的思路嗎?

在原來的論文中,我們是從強化學習開始的,因為我們直覺上認為這類似於人類的處理方法,也就是可以使用試錯。但我很好奇,所以我說:「好吧,試試進化方法怎麼樣?」我們做了很多實驗並取得了一些成功,並且認識到這個過程可以使用進化來完成,所以我們修改了核心算法。

更大的一個改變是使用了 ENAS(高效神經架構搜索)。過去,當你生成了大量架構時,每個架構的訓練和評估都相對於前一代是獨立的。所以一般不會共享任何先驗知識或信息。假設說你確實開發了一種共享機制,你可以從之前訓練的網絡繼承某些權重,然後就可以更快速地訓練。所以我們就這樣做了。

基本而言,我們的想法就是創造一個包含了所有可能性的巨型網絡,然後在該網絡中搜索一條路徑(以最大化在驗證集上的預期獎勵),這就是所要尋找的架構。某些權重會在下一次實驗中得到重複使用。所以會有很多權重共享。因為這種方法,我們實際上能實現很多個數量級的加速。原始的 NAS(神經架構搜索)算法要更靈活得多,但成本太高了。ENAS 基本上是一種更快的新算法,但限制也更多一點。

原始的 NAS 算法可以生成更優的架構以及更好的超參數、更好的數據增強策略、更好的激活函數、更好的初始化等等。目前我們只成功將這種新的 ENAS 算法用在了架構方面,還沒用到數據增強以及優化方面。

您的意思是其它參數是人類決定的?

我們將架構搜索和數據增強確定為人類專家很難設計的兩個關鍵領域。所以一旦你做對了這兩件事,就能實現大量成果。其餘的只用常見的優化技術和標準的實踐方法即可。我們只關注能提供最大效益的組件的自動化。

ENAS 是一個很近期的進展。儘管我們還在做大量黑箱中的實驗,但這個研究方向進展很快。

我聽說有一家創業公司正使用一種名叫生成式合成(generative synthesis)的技術。另外還有使用 GAN 的?不同的搜索算法各有哪些優缺點?

我不確定有誰真在用 GAN 來做架構生成。我認為這是可能的,但我不是很了解。

進化和強化學習具有相似的通用性,但同樣,如果你不做任何假設,它們的速度會非常慢。所以人們發展出了漸進式神經架構搜索的思想,即先搜索一個小組件,然後再不斷增添。我認為這是一個非常好的想法。

神經架構搜索概況

說到 ENAS,基本而言核心思想就是權重共享。你想開發一個大架構,然後找到一條路徑。ENAS 基於一些其它思想,比如 one-shot architecture search,也就是構建多個模型,然後想辦法在它們之間共享權重。我認為強化學習和進化方法的優勢是它們非常靈活。它們可用於機器學習流程中任何組件的自動化。但它們也成本高昂。ENAS 和漸進式架構搜索等大多數針對特定方面的算法都會有某些前提假設,所以它們的通用性和靈活性更差,但它們一般速度更快。我對 GAN 方面不太了解。我認為人們會使用 GAN 來生成更好的圖像,但我不認為人們會使用 GAN 來生成更好的架構。

遷移學習在 AutoML 技術中扮演怎樣的角色?

遷移學習有兩種類型。第一種是架構遷移學習,比如找到一個在圖像識別數據集上的好架構之後再遷移用於目標檢測。另一種遷移學習是權重遷移學習——如果你在公共數據集上訓練你的網絡,你會得到一個結果,然後再在你自己的數據集上再訓練該網絡。

讓我們假設這樣的情況:我們想做鮮花檢測。ImageNet 有大約 100 萬張圖像,包含花的圖像有大約 1000 張。你可以根據 ImageNet 找到最佳的架構,然後復用這些權重;或者你可以直接取一個 Inception V3 這樣的先進模型,然後在 ImageNet 上訓練,再在花上遷移學習,之後復用其權重。SOTA 方法是只遷移權重,因為大多數人都不做架構生成。你必須先讓你的 Inception V3 或 ResNet 在 ImageNet 上訓練。完成這個訓練之後,你再做微調。

我想說的是,實際上你既需要架構遷移學習,也需要權重遷移學習;兩者可以通過如下方式結合起來:

結合方法一:首先做架構遷移學習,然後再做權重遷移學習。結合方法二:直接在你的數據集上進行架構搜索,並在 ImageNet 上做權重遷移學習。結合方法三:直接使用 ResNet 和權重遷移學習。這是當前最佳的方法。結合方法〇:只在你的目標數據集上進行架構搜索,不做遷移學習。

因數據集不同,適用的結合方法也不同,因為有的數據集更大,有的則更小。不同的結合方式是在數據集的不同側面發揮作用。

我預測未來幾年,組合方法〇(即純粹的架構搜索)將能得到質量更好的網絡。我們在這一領域做了大量研究,我們知道這種方法實際上更好。

Quoc Le 在接受機器之心視頻採訪期間進行板書

麻省理工學校和上海交通大學的一篇研究論文提出了一種路徑層面的網絡到網絡變換(arXiv: 1806.02639),您怎麼看?

這是個很棒的思路。在我決定研究架構搜索時我就想過嘗試這一思路:首先從一個優良的初始架構開始,然後修改再修改,總是盡力做到越來越好。但我感覺這有點點胸無大志,我希望能做些更雄心勃勃的事情!

寫論文的一大好處是當我們發表時,我們會發現很多人都有一樣的哲學思想。而且他們確實對這些算法進行了修改,我們實際上也能從這些研究思想中學到東西,幫助改進我們自己的研究。

AutoML 的哪些部分仍需人類幹預?

我們還必須做一些設計搜索空間的工作。在架構搜索方面,可以使用進化、強化學習或這種高效的算法。但我們也必須定義一個卷積網絡或全連接網絡的構建模塊所處的空間。有些決定還是必須人來做,因為目前 AutoML 的計算能力有限。我們並不能直接搜索一切,因為那樣的話搜索空間就太大了。因為這樣的原因,我們必須設計一個帶有所有可能性的更小的搜索空間。

深度學習仍然是一種黑箱技術。AutoML 能幫助用戶更好地理解模型嗎?

我們能得到一些見解。比如,這樣的搜索過程會生成很多看起來類似的架構。你可以檢查這些架構,然後識別出特定的模式。你也可以得出一些直覺理解,幫助你了解哪種架構對你的數據集而言最好。比如在 ImageNet 上,由 AutoML 發現的網絡的層中通常都有多個分支(不同於每層僅有一個或少量分支的更傳統的網絡)。在分支的層面上看,很難解釋發生了什麼。

在 ImageNet 中,目標和圖像的尺寸各有不同。有時候巨大醒目的目標出現在圖像正中,有時候圖像中的目標非常小,比如一個小零件。所以你會有不同大小的過濾器。通過組合不同的分支,能得到更好的結果。我們會繼續研究這個問題。

AutoML 的挑戰和未來

您認為 AutoML 研究目前所面臨的最大難題是什麼?

我認為未來兩年中最大的難題將是如何讓搜索更高效,因為我認為很多人都不想使用一百個 GPU 來解決某個小數據集的問題。所以尋找能在降低成本的同時又不影響質量的方法會成為一個非常重大的問題。

第二個大難題是如何降低設計搜索空間所需的人力工作。因為現在的搜索空間中具有某些先驗的知識,所以即使我們宣稱我們用 AutoML 做一切工作,特定的先驗知識元素仍會進入搜索空間。我認為這還不夠理想,我也想研究這個問題。

但我可以告訴你,AutoML beta 版的質量已經很好了,谷歌雲的人也很滿意。我不能說產品的細節,但我認為質量已經很好。而且接受情況也很棒。

參閱機器之心文章:https://www.jiqizhixin.com/articles/2018-02-06-23

在 AutoML 的魯棒性提升方面是否還有機會?

一般而言,當我們做 AutoML 時,我們會有另外一個驗證數據集。這樣我們就可以不斷在那個數據集上進行驗證來評估質量。魯棒性實際上已經是 AutoML 的目標函數的一部分。現在在添加約束方面,事實證明 AutoML 有能力做到,比如製作對對抗噪聲更魯棒的模型,或將其它外部約束條件添加進 AutoML 中。這是一種非常棒的能力,因為很多時候當你有新的約束條件時,人類很難找到將其植入到模型中的方法。但是 AutoML 可以使用一個獎勵函數作為準確度和魯棒性之間的權衡。然後進化,最後會找到一個在準確度和穩健性之間有良好權衡的模型。

說個案例。我們之前有位研究者在研究如何設計出更好的網絡來防禦對抗樣本。我們在 CIFAR-10 上進行了小規模的實驗。他找到了一個對對抗攻擊非常穩健的網絡,由於之前最佳。這個結果非常好,能做到這一點的原因是人類很難直觀地想出一種防禦攻擊的方法。但 AutoML 不在乎,它只是嘗試了一些網絡,然後其中一個網絡不知怎的本身就具有防禦攻擊的機制。

有辦法有效地比較目前市面上的這些各不相同的 AutoML 解決方案嗎?

可以做到。只要你有一個任務,你就應該單獨創建一個數據集。你將其輸入 AutoML,然後它會得出某些預測模型,然後你在你的測試集上評估這些預測模型——這個測試集應該被看作是你的基準集。在基準集上的準確度是衡量模型表現的好標準。我不能過多地評論我們的方法與市面上其它方法的比較情況,但我認為人們都可以自己去看去比較。

您認為 AutoML 能夠生成下一代顛覆性網絡架構嗎,類似 Inception 或 ResNet?

我認為它已經做到了。我們近期使用了架構搜索來尋找可用於移動手機的更好的網絡。這是一個很艱難的領域,很多人都在研究。超過 MobileNet v2 是很困難的,這是現在的行業標準。我們生成了一個顯著更優的網絡,在移動手機上同樣速度下好 2%。

而這僅僅是個開始。我認為這樣的事還會繼續發生。我預計未來兩年內,至少在計算機視覺領域內,最好的網絡會是生成的,而不是人工設計的。

您怎麼看待圍繞 AutoML 的炒作?

我很難評論圍繞 AutoML 的炒作,但當我看到很多人都想使用機器學習時,我認為在幫助機器學習更廣泛可用方面還存在很大的能做出成績的空間。特定的技術可能比其它一些技術炒得更兇,但我認為隨著時間推移,我們能帶來影響的領域將非常廣闊。

很少有研究者能在機器學習領域多次取得突破。您是如何維持自己的創造力的?

首先,出色的研究者有很多,他們都非常有創造力,工作非常出色,所以我並不特殊。對於我自己,我有一些我一直很好奇並想要解決的問題,而且我非常熱愛解決這些問題。我只是跟隨著自己的好奇心並為世界帶來了積極的影響。這是好奇心與毅力的結合。我也會在周末踢足球,而且我愛好園藝。我不知道這是否有助於我的研究工作,但這確實能幫助我放鬆身心。

我不得不問:您如何應對失敗?

如果你熱愛,那你就會堅持不懈去追尋,對吧?我非常熱愛機器學習。教機器如何學習是一種做計算機編程的新方法:不用再寫程序了,可以教機器來做。我從根本上喜歡這個概念。所以即便遭遇失敗時,我也樂在其中!

相關焦點

  • 谷歌AutoML新進展,進化算法加持,僅用數學運算自動找出ML算法
    其目標是同時搜索 ML 算法的所有屬性,包括模型結構和學習策略,同時將人類偏見最小化。近來,機器學習(ML)取得了顯著的成功,這要歸功於深度神經網絡等 ML 算法。與此同時,這一領域研究中遇到的困難又催生了 AutoML,AutoML 旨在實現 ML 算法的自動化設計。目前,AutoML 主要通過結合複雜的手動設計組件來開發解決方案。
  • 揭開谷歌 AutoML 的神秘面紗
    谷歌執行長Sundar Pichai表示,我們都需要設計自己的神經網絡谷歌的人工智慧負責人Jeff Dean表示,100倍的計算力可以取代人類機器學習專家,他以需要龐大計算力的神經架構搜索為案例來解釋了這一點。
  • 谷歌AI模型在即時預報降水的使用
    據外媒報導,幾周前,谷歌人工智慧(AI)使用了一個機器學習模型來改進對乳腺癌的篩查工作。 結果看起來似乎很有前景,按照谷歌自己的說法,其得到的結果比傳統方法還要好:這種降水即時預報側重於0-6 小時預報,它可生成的解析度為 1
  • 人工智慧,「吃一塹長一智」的機器
    Dueling Neural Networks,又稱為Generative Adversarial Networks(對抗性神經網絡,GAN),是近年來最有潛力解決這個困擾的重要機器學習模型,在2018年入選了十大突破性技術。GAN的原理是兩個人工智慧系統可以通過相互對抗來創造超級真實的原創圖像或聲音。GAN賦予了機器創造和想像的能力,也讓機器學習減少了對數據的依賴性,對於人工智慧是一大突破。
  • 將科幻變成現實,谷歌百度用神經機器翻譯踐行人類的「巴別塔之夢」
    而谷歌的神經機器翻譯提出了帶有 8 個編碼器和 8 個解碼器的深度 LSTM 網絡組成的模型,使用了注意力和殘差連接。為了提升並行性從而降低訓練時間,注意機制將解碼器的底層連接到了編碼器的頂層。在推理計算過程中使用了低精度運算來加速翻譯速度。為改善對罕見詞的處理,谷歌將詞分成常見子詞單元(詞的組件)的一個有限集合,該集合既是輸入也是輸出。
  • 由「機器人」到「人機器」人工智慧發展史
    ,它由不同的領域組成,如機器學習,計算機視覺等所,是一門包括十分廣泛的科學,今天我們就來著重聊聊它其中一個重要分支,人工智慧機器人。:智能機器「能夠創建周圍環境的抽象模型,如果遇到問題,能夠從抽象模型中尋找解決方法」。
  • 重磅| 谷歌大腦養成記:從識別貓到突破性機器翻譯
    選自NYT機器之心編譯谷歌如何使用人工智慧來改進谷歌翻譯等許多谷歌服務?《紐約時報》雜誌今日發布了一篇重磅長篇《The Great A.I. Awakening》全面解讀谷歌利用機器學習重塑自身的戰略。機器之心編譯時進行了適當的刪減。
  • 深度| 機器的自我進化:走向自主編程的人工智慧(附提交ICLR 2017的...
    原標題:深度 | 機器的自我進化:走向自主編程的人工智慧(附提交ICLR 2017的自動編程論文) 選自ICLR、VentureBeat 機器之心編譯
  • 讓機器也有創意:人工智慧「增強」人類想像力
    如上圖右側Adam Levey的作品《一個未來沒有工作的世界》。這個作品就是把一些工作的從業者放到博物館成為展品,比如這裡是「工廠的工人」,下面寫著「在21世紀初滅絕了」。  不論是表格還是藝術作品,都在講一個充滿「恐慌」的人工智慧未來,這個未來中人的工作可能會受到技術進步的威脅。
  • 推斷速度達seq2seq模型的100倍,谷歌開源文本生成新方法LaserTagger
    來源:機器之心作者:Eric Malmi等機器之心編譯參與:魔王、杜偉使用 seq2seq 模型解決文本生成任務伴隨著一些重大缺陷,谷歌研究人員提出新型文本生成方法 LaserTagger,旨在解決這些缺陷,提高文本生成的速度和效率。
  • 谷歌機器翻譯取得顛覆性突破 到底幾分真假?
    ,然後對它們的大部分進行獨立翻譯,而神經機器翻譯則將整個輸入句子視作翻譯的基本單元。最近,做機器翻譯的同志們一打開朋友圈,猛然發現好像飯碗沒了,谷歌爸爸大力出奇蹟,提高了機器翻譯87%的水平。結果打開人家原文一看,原來虛驚一場,只是現有工作的整合,一篇完美的工程論文,並沒有新的模型提出。不禁長舒一口氣,呼~飯碗還在。呼~到底火遍朋友圈的那篇文章「谷歌機器翻譯取得顛覆性突破,錯誤率下降87%」到底幾分真幾分假呢?
  • 人工智慧利用神經網絡來控制機器
    人工智慧利用神經網絡來控制機器,或者是人工智慧根據預定的規則來控制機器.人工智慧可以用於搜索,診斷,預測,監控和機器人等諸多方面.人工智慧為人類提供了創造性解決方案,這個解決方案不僅能創造出改變,同時還能控制它們.世界對於人工智慧抱有非常樂觀的態度,因為它們讓人類工作變得更加高效.然而,智能的出現時間還很短暫,遠沒有到大眾普遍接受的階段.那麼,人工智慧未來的發展方向到底是什麼
  • 谷歌提出移動端AutoML模型MnasNet:精度無損速度更快
    選自Google AI Blog,作者: Mingxing Tan,機器之心編譯。目前開發者可以使用非常多的移動端 CNN 架構,也可以在機器上訓練新穎的視覺模型並部署到手機端。但各種各樣的移動端任務可能並不能藉助已有的 CNN 架構達到非常好的效果,因此谷歌近日將神經架構搜索方法引入了輕量級的 CNN 網絡,並提出基於強化學習的 MnasNet 以自動設計移動端模型。卷積神經網絡(CNN)已被廣泛用於圖像分類、人臉識別、目標檢測和其他領域。
  • 機器之心GMIS 2017嘉賓揭秘:人工智慧「標準教科書」作者——Stuart Russell
    作為人工智慧領域的頂級學者,Russell 對人工智慧的發展作出了巨大的貢獻。由機器之心主辦的全球人工智慧盛會——2017 全球機器智能峰會(GMIS 2017)——將於 5 月 27 日至 28 日在北京 898 創新空間舉行。本次大會將邀請海內外眾多嘉賓及機構,權威、系統地介紹機器智能相關技術的前沿研究,探討如何將技術轉化成產品和應用等問題。
  • 谷歌和OpenAI新研究:如何使用達爾文進化論輔助設計人工智慧算法?
    30 年的發展取得了一些優秀成果,大多數腦啟發人工智慧技術的進展都圍繞著「神經網絡」,這一術語借用自神經生物學,其把機器思考描述為被稱作「神經元」的互相連接的數學函數中的數據流動。但是自然界也有其他好想法:現在計算機科學家正再次踏入生物進化這一研究領域,希望通過在人工智慧中植入生物進化元素的方式開發出更智能更有效的算法,恰如數十億年來生物進化塑造了人類大腦一樣。
  • 新型神經網絡晶片:由憶阻器構成,為人工智慧提速!
    關鍵技術提示:人工智慧、神經網絡、憶阻器。背景分析谷歌開發出TPU、AlphaGo戰勝李世石、無人駕駛汽車上路,一些列的事件讓人工智慧再次成為萬眾矚目的焦點。無論是國外的谷歌、微軟、英特爾,還是國內的百度、騰訊、阿里,科技巨頭們都紛紛在人工智慧領域,採取了一些列的動作。
  • 譚鐵牛院士:人工智慧新動態
    報告整理並列舉了2017年人工智慧的十件大事,總結了人工智慧未來的發展趨勢和值得關注的研究方向。本文來自:模式識別國家重點實驗室,由楊紅明、張煦堯記錄整理,由《走向智能論壇》微信公眾號推薦閱讀。譚鐵牛院士談人工智慧新動態2017年11月25日,由模式識別國家重點實驗室、中國自動化學會模式識別與機器智能專委會、中國人工智慧學會模式識別專委會聯合主辦的模式識別與人工智慧學科前沿研討會在中科院自動化所學術報告廳成功召開。
  • 騰訊絕藝對戰谷歌阿爾法狗,中美人工智慧的對弈
    2012年之前,谷歌一直在利用動物訓練Google Brain(谷歌大腦)項目,並在2012年做了一個實驗,在沒有輸入「貓」的概念,讓機器透過學習,最終認識了「貓」。這是世界上第一個機器透過學習識別「貓」,締造者是人工智慧泰鬥吳恩達(Andrew Ng)。
  • 如何高效快速準確地完成ML任務,這4個AutoML庫了解一下
    通過使用最近的一些方法,比如貝葉斯優化,該庫被用來導航模型的可能空間,並學習推理特定配置是否能很好地完成給定任務。該庫由 Matthias Feurer 等人提出,技術細節請查閱論文《Efficient and Robust Machine Learning》。