「最強AlphaGo」煉成了,但短期內小數據小樣本學習未必現實

2020-12-03 36氪

昨天最強「AlphaGo煉成」的消息刷屏全球媒體。讓不少人興奮的一個觀點是海量標定數據不再是瓶頸。但業界也有人持不同的看法。

不久之前,中科視拓曾組織過一個圓桌論壇,名為「深度學習的能與不能」,邀請了機器之心創始人趙雲峰作為主持,中科視拓董事長山世光、地平線機器人創始人餘凱博士、360研究院院長顏水成教授、微軟資深研究員梅濤博士、中科院自動化所張兆翔研究員作為嘉賓進行了討論。雖然這些嘉賓都是中科視拓相關的研究人員,但這個圓桌後半部分討論了小數據甚至無數據情況下的一些創新研究方向及可能的難題,這部分內容我們認為很有價值。於是,就獲得官方授權及資料,對這個論壇的一些內容做了整理。

概括來說:

顏水成認為,GAN可以非常好地去解釋小樣本學習的過程,但最終的模型生成機制還是用大數據學出來的,並不是有一個樣本立即能得到一個模型。

梅濤認為,學習還是通過大數據來學,小樣本學習,現在有zero-shot learning,在學術上可以探討,但是這樣的技術很難應用到真實場景裡。

張兆翔認為,將數據在其他轉化過程中的不同模型作為知識沉澱下來,去幫助新智能體學習的時候,有望做到小樣本學習,但是不一定能完全做到。

山世光認為,GAN非常重要,但背後應該是基於大數據學習的。

餘凱認為,未來想像的數據有可能會緩解對數據的缺失所帶來的掣肘。

以下為現場內容的整理。

機器之心創始人趙雲峰(主持人)

接下來問一個比較具體的問題。我們要解決的小數據甚至無數據的問題,我們要實現的半監督甚至無監督的學習,深度學習不太擅長。那我們可以在哪些方面有新的探索?用哪些新的方法解決這些問題?

360副總裁、研究院院長顏水成教授

無論來自計算科學領域,還是來自神經科學領域的研究者,都一直在探尋一個同樣的問題——「早期時人腦識別的機制到底是什麼樣的」。去年的會上我們討論了可能的一個hypothesis(假設)——人的大腦有兩套機制,一套機制是非參的,一套機制是參數的。參數這套機制可以用類似深度學習的方法去模擬。另一套非參的機制是,我們在給定一個樣本時,並不立即給出模型。比如狗屎的例子,如果說以前從來沒有見過,現在有了一種狗屎,可能第二次、第三次見到狗屎的時候,並不是腦子裡面有個模型,而是用已經見過的狗屎去做匹配。所以說當你見的狗屎的數目足夠多了之後,模型就可以從中學習出來,就是從非參轉化到參數化。

也許我們思考這個問題的時候,從開始就做小樣本的學習本身是錯誤的。因為人還有一個非參數的機制,在這個機制裡,慢慢積累數據,形成模型。並不是拿到樣本即可立即得到一個模型。大家知道現在GAN可以非常好地去解釋小樣本學習的過程,比如你有一些類型的樣本和一套生成機制,你可以從一個面生出各個維度表示。比如說你看到了一個狗屎,但是你要看了一個牛糞,牛糞你看到這個模型就有了,那麼就是說可能腦袋裡的GAN模型會模擬牛糞的生成機制,會生成很多樣本,那麼這個樣本再去指導你去識別這個狗屎。就是說有這麼一個機制,一種是非參的,一種類似於GAN,已經生成一個模型了,一個新的樣本利用相似的類別,會生成出很多樣本出來。總的來說,最終的模型生成機制還是用大數據學出來的,並不是有一個樣本立即能得到一個模型。

微軟資深研究員梅濤博士

我同意顏水成的觀點,我始終相信學習還是通過大數據來學。

小樣本學習,現在有zero-shot learning,在學術上可以探討,但是這樣的技術很難應用到真實場景裡。

我們在真實場景中也遇到過這樣的問題,微軟有很多數據,至於小樣本,我們會在大資料庫裡面做一些數據的清洗,包括數據的整理,數據的排序這方面工作。最後還是把這個問題歸結到基於大量樣本學習的問題。

但在學術上面來說,可能我們還不太熟悉人腦對物體認知的過程,對泛化能力還不夠清晰,所以這方面可能還是要跟神經科學結合起來進行研究。zero-shot learning,one-shot learning等,解決問題的能力可能有限。

中科院自動化所張兆翔研究員

小樣本學習,顯然是人類學習的一個特長吧。那麼,人或者是生物為什麼能夠進行小樣本學習?

其實本質上它也是基於大樣本的。因為我們說到從原始人,到現在走這麼長時間的進程當中,有很多很多的東西都刻畫到基因中了,或者在演化過程中刻畫人腦的參數調整過程。因此在現在社會當中,爸爸媽媽告訴孩子這是狗屎,告訴狗屎的過程其實是從猩猩、猴子踩到狗屎開始,所以說在這個進化過程當中,其實是把這些東西給刻畫下來了。

在學術界,有觀點認為人工智慧應該走向數據與知識的結合,如果我們能夠結合一些知識,顯然能夠從完全由數據驅動轉化為一些小樣本驅動。

在某種意義上來說,這種知識其實是從過去的數據總結出來的。比如我們近期開展的一個工作,如果有一個大樣本已經訓練出一個模型,這個模型能夠作為一個老師存在,去指導他的孩子或者他的學生,那這個學生就可以用較少的數據跟老師互動起來,去迅速地達到更好的感知或識別迴路。因此,如果從多智能體的角度去探索,將數據在其他轉化過程中的不同模型作為知識沉澱下來,去幫助新智能體學習的時候,有望做到小樣本學習。但是不一定能完全做到的,因為我們知道人類的進化是相當複雜的

另一個我覺得值得嘗試的方面,就是前面幾位提到的:大數據的學習仍非常重要

我們知道現在很多時候會用到因果分析。不同的果是由一個原因導致的,比如說狗屎,還有狗屎旁邊撒的一泡尿,這是兩個模態、兩種數據,卻都因「狗的操作」這個原因導致,因此狗屎和狗屎旁的尿之間是有關係的。這種關係可以幫助我們構建映射關係。很多時候一些共生的模態,可以幫助我們做很多很多事,左眼可以看到東西,右眼也可以看到東西,你眼睛看到東西,同時你的耳朵也聽到東西,這些共生的模態幫助人在處理信息時,減少標註數據,通過儘可能少的樣本去達到一些更好的學習目的,這些都是學術界做的一些有意義的嘗試,也體現了深度學習的研究有很大的挖掘潛力。

中科視拓董事長山世光

我舉一個具體的例子。在人臉識別這個我們做了很多年的領域,這兩種方式其實都是有的。在人臉識別這個領域裡面,做神經科學和做心理學的人在研究兩種不同的人臉識別方式。一種就是我們所謂的陌生人的識別,比如說之前你從來沒見過我,給你一張我的照片讓你去機場接我;另外一種是去辨認你非常熟悉的人。這兩種不同的人在你的大腦裡面識別模型其實是不一樣的。前者在心理學或者神經科學領域,他們研究的結果更傾向於在你大腦裡存了一個照片,因為你其實並沒有見過其他更多的信息。當然你也可以舉一反三,等會我們說另外一個話題。而對於非常熟悉的人,比如你現在回想你的父母,可能就不再是一個照片,而是有複雜多樣的信息,更多音容相貌的信息就加進去了,那可能就變成了一個模型,而不是純粹的一個照片或者是某種特徵。

這是一個我們會感覺到差異的地方,一個one-shot問題。

但實際上,在人臉識別領域,我們一直在踐行的就是one-shot的問題。比如說今天大家可能在門口看到了人臉識別系統。大多數人沒在我們系統裡面做過訓練,二隻提供了一張照片,那為什麼那個人臉識別系統也可以識別本人呢?我們也是用的深度學習。無需成百上千張的照片也可以識別本人是因為我們已經對其他人的照片,幾十萬人或者是上百萬人的照片,做了學習。

我們是學了如何去區分不同人臉的方法或者模型。它有推廣能力,它可以推廣到我們從來沒有見過的人身上。一個人來了之後,雖然他沒有在訓練集裡面,但是我們用另外一百萬人學出來的模型,可以非常好的去提取他跟別人有什麼不同的特徵。這已經是一個模型遷移問題,另外一群人的區分模型用到這個人身上去,我想這個就是一個遷移學習的例子。

剛才還提到GAN這樣一個方法,我覺得這個非常重要的事情,就是我們人類有舉一反三的能力。人看了一張照片之後,你看到他正面的照片,你可能會想他側面會長什麼樣,他笑出來是什麼樣等等。這些東西就是我們舉一反三的能力。這個舉一反三的能力基於大數據學,因為我們見過了太多的人,他正面長什麼樣側面長什麼樣也學到了這個模型,那麼這個模型可以指導我們去猜測這個人正面是這個樣子,那他側面是什麼樣?他笑起來又是什麼樣?

這個背後的問題應該是基於大數據學習的,比如說,當我們這個世界上有一百萬類物體需要識別,當我們做到了一萬類的時候,也許做一萬零一、一萬零二類的時候就相對比較容易了,因為我們已經有了大量的識別其他物體的經驗,利用這個經驗,可以用少量數據遷移到其他的問題上去。

地平線創始人餘凱

對,其實剛才討論的我就順著大家討論的往後想,就是說這個小數據學習大數據學習,看似是兩個很不一樣的概念。但是我感覺這兩個空間,實際上是存在一個蟲洞一樣的一個效率,就是這兩件事情有可能是一件事,為什麼是一件事?

那我舉三個例子跟大家解釋一下。

因為剛才談到舉一反三,古過人類簡史這本書,其實可能都會回顧,就是說在幾十萬年前實際上存在差不多人類的多個種群,我們現在出來這個勝出的叫智人,這個智人是勝出的。但是你發現很有意思的,從這個腦容量來衡量,其實智能不是最聰明的,但是在考古發現裡面,發現智能的群落跟其他的被智能打敗的那些人類的群落,有一個很大的不同,是說智能有一個很明顯的能力,就是所謂虛擬化,虛擬的能力。就是他會描述虛擬的故事,並且去演算這個虛擬故事,比如說他們會去演算這個部落裡有一個共同的神靈,這個神靈怎麼樣怎麼樣。從來都沒有人見過,一般的猴子就是說只會見到了才會相信,但是智人這群猴子沒有看見的東西,他也能夠虛擬、想像。所以這種想像的能力,實際上是讓這個人類區別於很多其他的,因為想像一個共同的神靈並且活靈活現,他會什麼行為,喜歡什麼不喜歡什麼,他的性格是什麼樣的,實際上給這個部落造成一個範式,讓大家按照這個範式去匹配,所以這個種群就更強大。

這是第一個例子,舉一反三,並且是想像的能力,區別於這個,就是讓人類插上翅膀。

第二個例子是Alphago,今年的Alphago2.0,你會發現它其實一定意義上來講沒有數據,因為它是完全從零的狀態開始博弈,它完全是左右博弈,去虛擬下無數盤棋。整個這個程序是用的深度學習加強化學習,在不斷的從虛擬的對決裡面去學習很多的經驗,最後達到一個很強大的能力,會接近棋盤真理。zero data learning,它是沒有用任何人類歷史的棋盤對決的數據,但是它又是大數據,為什麼呢?因為它用很多虛擬的數據來學習,所以就是說,你就發現想像力使你在zero data learning和data learning之間好像有個蟲洞效應。實際上它們兩個之間距離是非常短的,不是我們想像的差別那麼大。

那我講第三個例子,就是關於自動駕駛,因為自動駕駛其實大家知道,真正測試一個自動駕駛系統的行為,不是靠這些常規交通,而是靠什麼呢?靠很多邊界的案例,靠很多不正常的交通數據,比如小孩子突然走到馬路,你可能一輩子很難碰到幾個,但是你就是要拿這些情況去測試。但是你不可能用真實的數據,你不可能讓小孩真的去橫闖馬路,然後去測試你這個自動駕駛的系統,所以一定是用仿真的系統,去產生的很多的這種配製,然後去訓練去測試。這個是自動駕駛必須要走的路,那這個裡面實際上就是用大量的數據,但是這個數據是舉一反三虛擬想像出來的。所以未來的話,有可能想像的數據會填補我們對數據的缺失所帶來的掣肘,然後使你實際上有效的是用小數據,但是你從產生很多大量的數據,使得你這個系統能夠不斷的進化,去變得越來越聰明。

我們未來會看到越來越多的例子體現這一點,所以這一塊其實也聯繫到我一直在思考的事情,因為我去年參加微軟研究院院慶的大會的時候,我記得我向大家推薦了英偉達的股票,我說英偉達的股票值得買。當時如果信了我的人,應該現在還是賺了不少錢,至少比買北京的房子賺錢。那時候70塊錢,現在170多。

因為我在思考,因為你要不斷的舉一反三,實際上你這不是觀測而是計算,因為你能夠不斷的舉一反三,其實是更大的計算力。所以我感覺就是說,計算力本身還是會持續去推動整個人工智慧往前去發展,所以我覺得投資在計算力上,我認為當前這個時間點還是不錯的,這個是我的一個分享。

---------------------------------------------------------

關於這個圓桌其他部分的內容,我們也進行了一些簡單整理。但為了給讀者一個更好的閱讀體驗,我們並未全部放在文章裡。對這個話題感興趣的讀者,可以點擊連結查看全部內容。

相關焦點

  • 柯潔回應新版本AlphaGo問世:人類太多餘了
    對此,柯潔回應稱:「一個純淨、純粹自我學習的alphago是最強的...對於alphago的自我進步來講...人類太多餘了。」打敗李世石的AlphaGo用了3000萬盤比賽作為訓練數據,AlphaGo Zero用了490萬盤比賽數據。經過3天的訓練,AlphaGo Zero就以100:0的比分完勝對陣李世石的那版AlphaGo。
  • 小樣本學習(Few-shot Learning)綜述
    few-shot 場景下擬合,因此通過調整優化方法來完成小樣本分類的任務。首先,這些梯度優化算法包括 momentum, adagrad, adadelta, ADAM 等,無法在幾步內完成優化,特別是在非凸的問題上,多種超參的選取無法保證收斂的速度。其次,不同任務分別隨機初始化會影響任務收斂到好的解上。雖然 finetune 這種遷移學習能緩解這個問題,但當新數據相對原始數據偏差比較大時,遷移學習的性能會大大下降。
  • 談談實現小樣本學習的兩條路徑
    小樣本學習是當下機器學習界的一個核心課題。大數據是當下深度學習的咽喉,面臨收集成本昂貴,甚至根本無法採集的弊端, 小樣本學習的實踐價值不言而喻。對於眾多產業來說, 真正能夠收集到大量樣本的是極少數情況,比如人臉識別,網際網路上的文本等。而更廣大的行業, 數據本身收集就很難,一些隱私倫理等障礙難以跨越,比收集數據更難的還有標註,大數據支撐的機器學習基本使用無望。
  • 沒有大數據,這7種小樣本數據同樣潛力無窮
    因此,我們常常需要開發小樣本數據。本文將介紹7種提高小樣本數據原型化效果的方法。1. 模型不可能廣泛適用這是工作的首要前提。所建立的模型僅僅基於宇宙萬物中的極小一部分,只有在這種情境下,模型才能順利運行。如果你利用一系列室內照片建立了一個視覺原型,那麼這一模型絕對無法適用於室外。
  • AlphaGo Zero用40天成為世界最強圍棋AI
    ZM-GO  | 周末圍棋 弈路伴你 點名關注● 圍棋圈內比較優秀的公眾號AlphaGo的論文發布早就有預告,有預兆,並非突如其來,石破天驚……但當它就這樣出現,糊在小編臉上,還是顯得那麼讓人震撼……論文摘要在另一篇置頂文已經有了,這裡只是略微補全一些周邊信息。
  • 今日Paper|小樣本學習;機器學習;單幅圖像去霧;零樣本目標檢測等
    目錄提高小樣本學習對全新分類的識別能力 機器學習的「學習如何遺忘」複雜城市背後簡單的空間尺度規則FD-GAN:具有融合鑑別器的生成對抗網絡用於單幅圖像去霧GTNet:用於零樣本目標檢測的生成遷移網絡 提高小樣本學習對全新分類的識別能力論文名稱:Cross-Domain Few-Shot Classification via Learned Feature-Wise Transformation
  • 比AlphaGo 更複雜,最強日本麻將 AI 是怎麼煉成的?
    神秘的最強日麻 AI2019 年 3 月起,Suphx 獲批進入專業麻將平臺「天鳳」。短短四個月內,Suphx 在該平臺瘋狂對戰 5760 次,成功達到十段,從而在日本麻將界聲名大噪。麻將在中國群眾基礎深厚、普及率高,有「國粹」之稱,但民間流行的麻將規則不一,且競技化程度相對較低,而日本麻將擁有世界上競技化程度最高的麻將規則。
  • GPT-3的最強落地方式?陳丹琦提出小樣本微調方法,比普通微調提升11%
    本文研究了一個更符合實際場景的小樣本學習問題:1)可以在普通硬體資源上訪問中等大小的語言模型(如RoBERTa);2)可以通過少量樣本進行微調。其實,自BERT等預訓練語言模型誕生以來,本身就降低了對大規模標註數據量的需求;此外,獲得少量的標註樣本(比如每個類別16個樣本),對我們也是很容易的。
  • 「合併」樣本和標籤?IBM 為多標籤小樣本圖像分類帶來新進展!|CVPR...
    雷鋒網 AI 科技評論按:目前大多數關於圖像小樣本分類的研究工作都是研究單標籤場景,每個訓練圖像只包含一個對象,然而現實中的場景中以多對象多標籤居多,因此對於多標籤小樣本的圖像分類研究更 具現實意義。IBM 的研究人員對多標籤小樣本的圖像分類進行了研究,並在 CVPR 2019 大會上進行了論文分享,相關成果發表在 IBM 官網博客上,雷鋒網 AI 科技評論編譯如下。當我們將人工智慧和機器學習擴展到面向企業和工業界應用的更廣泛的任務集時,從更少的數據集中學到更多是必要的。數據增強是一個重要的工具,特別是在沒有足夠的訓練數據的情況下,它通過自動合成新的訓練樣本來改進學習。
  • 什麼是小樣本學習?這篇綜述文章用166篇參考文獻告訴你答案
    機器之心報導參與:魔王什麼是小樣本學習?它與弱監督學習等問題有何差異?其核心問題是什麼?來自港科大和第四範式的這篇綜述論文提供了解答。數據是機器學習領域的重要資源,在數據缺少的情況下如何訓練模型呢?小樣本學習是其中一個解決方案。來自香港科技大學和第四範式的研究人員綜述了該領域的研究發展,並提出了未來的研究方向。這篇綜述論文已被 ACM Computing Surveys 接收,作者還建立了 GitHub repo,用於更新該領域的發展。
  • ...鄭冶楓:醫學影像AI為什麼需要小樣本學習和域自適應技術? | CCF...
    目前,小樣本學習比較成熟的技術就是遷移學習。遷移學習就是將某個任務上訓練好的模型遷移到另一個任務,小樣本遷移學習則是源域已經有大量訓練樣本,而目標域只有少量樣本的情況。介紹小樣本學習案例2:基於魔方變換的自監督學習剛才介紹的是我們做的第一個小樣本學習的工作,畢竟這個工作還是需要做分割標註,這個工作量很大,於是我們接下來進行了自監督學習,只需要拿原始圖像進來,通過構建自監督學習任務,這樣就可以拿到這個任務本身需要的標註,通過圖像本身訓練,不需要額外的人工標註。
  • 刑警陳懇:刑偵「最強大腦」是如何煉成的
    ▲陳懇(左一)辦案中從警22年,他擅長結合傳統戰法和信息化技戰法,精準打擊犯罪,破獲了諸多疑難複雜大案要案,因為辦案中頭腦靈活、心思縝密,他被譽為九龍刑偵的「最強大腦」……他,就是九龍坡區公安分局刑偵支隊副支隊長陳懇。小疑點大文章破首例套路貸「我們經常是無路中找路。」
  • 最強AlphaGo怎樣煉成?DeepMind團隊進行全面解讀
    剛剛,這個史上最強圍棋AI的兩位主要開發者,David Silver和Julian Schrittwieser,做客知名網站reddit,展開一場超級問答AMA(Ask Me Anything)。他們是誰?
  • 楊強申省梅等AI大咖共談「跨域學習」,搞定小數據才是王道
    理想雖好,但現實卻是——哪有那麼多高質量、標註數據可用,更多的依舊還是小數據。這也正是工業界往往需要大量人力去收集、標註數據的原因。那麼對於「玩轉」小數據,學者、專家們又有何高招呢?遷移學習、跨域學習、聯邦學習、小樣本學習,均為破解之道。
  • 谷歌團隊發布AlphaGo Zero:柯潔稱人類太多餘了
    谷歌團隊發布AlphaGo Zero:柯潔稱人類太多餘了(圖片來自於推特)在這款軟體發出之後,柯潔也對這款軟體發表了自己的看法,他認為:「一個純淨、純粹自我學習的alphago是最強的...對於alphago的自我進步來講...人類太多餘了。」之所以柯潔會這樣說,主要是因為AlphaGo Zero的練習主要是通過自我對弈在三十天之內發展起來的。
  • 阿爾法狗之父揭秘最強「狗」如何煉成:3天走完人類千年棋史
    倫敦當地時間10月18日18:00(北京時間19日01:00),谷歌旗下的DeepMind團隊公布了進化後的最強版AlphaGo ,代號AlphaGo Zero。  新版本的AlphaGo究竟有多厲害?打敗李世石的AlphaGo用了3000萬盤比賽作為訓練數據,AlphaGo Zero用了490萬盤比賽數據。
  • 能贏AlphaGo的只有它自己 柯潔回應新版問世:人類太多餘了
    谷歌人工智慧團隊DeepMind團隊在國際學術期刊《自然》(Nature)上發表論文,宣布新版AlphaGo——AlphaGo Zero可以在沒有人類指導的情況下學習,其水平超過此前所有AlphaGo(阿爾法狗)。
  • CVPR 2018 最前沿:讓神經網絡學習比較來實現少樣本學習
    前言相信每一位研究深度學習的朋友都明白,深度學習能夠在這幾年取得如此爆炸式的發展,除了算法本身的改進與創新,最關鍵的因素就是擁有海量的數據和強大的計算資源。那麼,我們很自然的會問:沒有海量數據怎麼辦?現實生活中有很多問題並沒有那麼多的數據可以採集,或者說採集數據所需的成本很高,比如稀有物種的圖片,醫療診斷的圖片。
  • 深度學習下的微表情研究難題:數據捕捉困難,耗時長、樣本小
    近日,2019CNCC微表情檢測和識別論壇在蘇州舉行,參會人員對微表情資料庫建立進展,情緒洩露與欺騙的關係、基於深度學習的微表情分析以及未來可能應用領域進行了探討。面部表情是情感表達的主要窗口。美國心理學家艾伯特·梅·拉別恩曾提出一個公式:情感表達=7%語言+38%聲音+55%面部表情。達爾文在《人類和動物的表情》中也指出,面部表情是人類長期進化的結果。
  • 小樣本,大數據——有源晶片「主動」出擊
    「弱水三千,只取一瓢飲」,這句詩意的古語在科研領域可以恰當地描述微流控技術的內核,即用最小的成本來獲得最大的收益,僅需極少的樣本採集便可獲得所需的各項信息。