AIR 015 | 微軟亞洲研究院常務副院長芮勇:計算機視覺從感知到認知...

2020-12-20 雷鋒網

作為本屆GAIR大會重量級的嘉賓之一,同時也是微軟亞洲研究院常務副院長,CCF常務理事,IEEE、IAPR和SPIE等國際一流學術組織成員的芮勇博士,在今天下午進行的「機器學習大浪下的巨頭們」這一大會議程中,為我們帶來了關於計算機視覺領域的一些最新觀點和思考。

芮勇博士的報告主要分作三個部分:第一部分闡述了計算機視覺領域在過去50多年的發展,並指出在當下的2016年我們尚處在一個從感知到認知的重要分水嶺階段,並且還沒有完全步入認知的層面;第二部分分享了未來計算機視覺領域可能的發展方向;最後告訴我們計算機視覺完全從感知走向認知的3點關鍵因素。

50年的歷史

在第一部分中,芮勇博士表示,對於只認識0和1兩種狀態的計算機而言,計算機視覺在過去50年主要經歷了以下4個階段:特徵提取、圖像標註、圖像理解和圖像的深度理解。

1. 特種提取是指從一幅圖像中,找到主要的特徵像素並提取出來。例如在一張白紙上寫了一個字,那麼「文字」這個像素就是特徵像素,是需要提取的。

2. 圖像標註這一點也分成兩個小的部分。第一部分是圖像分類,向計算機輸入一張圖片,計算機要能夠分辨出圖中的內容是人還是物體。第二部分是像素級別的分類,計算機能夠從一張圖片的像素級別中分辨出哪個像素屬於人,哪個像素屬於物體。

同時,芮勇博士也提到了深度學習對於圖像標註的重大影響。在2012年引入深度學習之前,圖像標註的錯誤率高達28.2%,而自從引入了深度學習網絡分析模型,機器標註圖像的錯誤率已經從2012年的16%(已經低於2012年之前)降到了2015年的3.5%,而神經網絡分析模型的規模也增加到152層,這在全世界範圍內都是領先的。

3. 圖像理解是指,輸入計算機一張圖片,計算機要能自動生成一句話的自然語言描述。例如一張合影,計算機或許會輸出:這是一張兩個人的合影照片。

4. 圖像的深度理解是指,計算機不但能識別出圖中的內容,還能知道圖中內容的具體情況。還是用合影為例,計算機這時能可能會這樣描述:這是歐巴馬和習近平的合影。芮勇博士表示,這一點目前是完全可以做到的,目前計算機涵蓋的認知範疇是全球大部分名人和著名景點,比如白宮和天安門廣場。

未來可能的發展方向

在回顧完發展歷程之後,芮勇博士還從以下幾個角度分享了他對於計算機視覺研究下一步發展的一些想法。

1. 圖片的隱含深意。例如一張大象追歐巴馬的圖片,除了能輸出上文提到的自然語言描述之外,未來計算機可能還能理解圖像的內涵意義。例如大象和歐巴馬的象徵意味,以及美國大選中民主黨與共和黨的相互競爭等。

2. 視頻的理解。例如輸入一段視頻給計算機,計算機同樣可以輸出一段自然語言的描述。芮勇博士表示這其中的難點在於,視頻除了圖像中橫軸縱軸的二維描述之外,還加了一條時間線的三維描述,因此對於數學建模和數據分析都造成了與圖像識別完全不同的研究方式和難度。

3. 利用圖片聊天。例如輸入一張可愛小狗的圖片,計算機可能回覆:萌萌噠。

4. 利用圖片講故事。例如將來計算機可能根據輸入的若干圖像,自動生成一個扣人心弦的精彩故事。

3個關鍵因素

最後芮勇博士為大家揭示了計算機視覺完全從感知走向認知的3點關鍵因素。

1. 機器學習算法的進步。業界需要更先進的算法和更深度的分析模型來助力計算機視覺的進一步發展。

2. 各個垂直領域的科學家和從業者合作。除了計算機視覺自身領域的發展之外,將計算機視覺與各個垂直領域結合,在工程和商業中真正發揮作用,推動計算機詩句的縱身發展。

3. 高質量的海量數據。在大數據時代,高質量和海量的數據作為一切研究的基石也至關重要。

最後芮勇博士總結說,這三點如果都能做到了,機器學習算法本身的進步,研究學者和垂直領域的專家們越來越多地合作,同時優質的數據集也越來越多,那麼我們就能從感知正式走向認知。

以下是現場實錄:

非常高興下午有這個機會跟大家聊聊計算機視覺,我的題目叫《計算機視覺從感知到認知的長徵》。

我想回顧一下計算機視覺過去50年的發展。今年的2016年也是人工智慧這個詞被創造出來的第60年,之前其實沒有這麼一個詞,60年中國人叫一個輪迴,輪迴總是會有大的飛躍,我們看看2016年人工智慧有什麼大的飛躍?

人工智慧從最開始有很多的領域,我本人花的時間最多的是計算機視覺,人有各種感官,但人70%的信息是靠人的眼睛來看到的,計算機視覺也是人工智慧當中一個非常重要的方向。

最早大家說能不能可以讓計算機可以看到,像人類的眼睛可以看到一樣。過去的50年的發展,我們可以看到,是從社群到處理到Recognition到理解,就像我們畫一幅畫一樣,從最早的線條,到一定的灰度,到最後的全彩色的,這50年都做了些什麼事情?我們可以看一看,我想用這張圖片跟大家分享一下。

人看一張圖片覺得很簡單,我一看覺得這是一個人、這是一張桌子、椅子,人一下就理解了,計算機看到的很難,因為計算機看到的就兩個東西,不是0就是1,讓計算機看到圖片裡包含什麼內容非常困難。這50年走過了很多路,從最早的特徵提取,比如說這麼一幅圖,它的特徵有線條、有轉角,有色彩,之後第二步比這個更前進,叫標註。這幅圖比如說是一個戶外的場景,裡面有人物,比這個更前進一步,叫Annotation。比這個再往前走一步,我們對圖片的理解就是Captioning,我如果把這個圖片給計算機去看,它能不能生成一段我們人類看得懂聽得懂的文字,比如喬治和他的父親在迪士尼樂園在玩一個遊戲,這麼一句話,這就更難了。比這個再難一點,我給計算機這個圖片,我問計算機幾個問題,比如說這個圖片裡面坐在前面那個人穿什麼顏色的衣服?計算機這時候要知道什麼是人,衣服在哪裡,它要回答是紅色的衣服,這就更難了。比這個再難一些的就是我們小時候都上過課,叫做看圖認字,看圖說話,計算機看到一幅圖之後,能不能生成一個故事,這就是這50年我們大家孜孜不倦想做的事情。

我們來回顧一下這50年是怎麼走的,第一步是特徵提取,計算機看到的除了0就是1,當然有些像素更加重要,哪些象素作為提取這很重要,比如這張圖,每一個像素的重要性是不一樣的,畫圈的地方是我們想把它作為特徵的一些地方。再往下看,第二步我們想給一個圖片進行標註,進行標註的話,我們就想知道,比如說圖片裡面有兩個人,他們是在戶外的活動,這件事情怎麼做?我們來看一下是怎麼做的。

這個就是很重要的一個部分,有三個部分,第一個部分是圖片的分類,這個時候我們回答的是什麼問題呢?這張圖片裡面是不是含有一隻小狗。第二個就更難一點,計算機還要告訴這個小狗在什麼位置,把它框出來。第三個更難,每一個象素能不能告訴我這個像素是屬於這個小狗身上的像素還是電視機上的像素?一個比一個難。過去的這十年,還有很大很大的發展,我們來看。

第一步,圖象分類,圖象分類在計算機視覺裡有一個全球性的比賽,叫ImageNet,裡面有120萬個訓練樣本,有10萬測試圖像,1000個類別,你讓計算機看沒有見過的圖片,幫你分出來這是1000類裡的哪一類。

2012年之前,深度學習沒有引入計算機視覺之前,大家看看錯誤率,靠右邊的是2010年的錯誤率28.2%。2012年的時候,深度學習第一次被用在圖象識別,錯誤率一下降到16.4%,每年的錯誤率越來越低。2014年有個斯坦福的博士想挑戰一下。我如果告訴你一千類裡有兩百來種狗的不同類型你就知道有多難了,我只認識四五種狗,但要做到上百種狗都能對,非常困難。斯坦福博士關在屋子裡訓練了幾個月,他的錯誤率是5.1%,去年降到了3.5%,第一次超過了人類的錯誤率。

2012年深度學習第一次引入計算機視覺,當時有八層,它的錯誤率降低。再往下走,2014年到了19層,錯誤率繼續降低,到2015年,我研究院的同事做出了152層的極深網絡。大家覺得往下做沒什麼了不起,其實想做得深很難,在2015年以前,全球沒有幾個團隊能做到超過20層,因為是訓練不下去的,所以這是一個非常好的工作。用神經網絡,不僅是每一層延到下一層,有的之間還可以轉跳。

這是圖片的分類,解決的問題是圖片裡面是不是有隻小狗。更難的是這隻小狗在什麼地方,物體的檢測。七八年以前,全球能做到最好的程度也就是這樣,今天通過深度學習的方式已經可以做到這樣的水平。你看最左邊的女士她只是把胳膊肘露出一點,腿露出一點。再往下看,這個大公共汽車後面的司機我們解釋說這是一個人,現在已經達到這樣的水平,跟人類的視覺水平已經不相上下。

比物體檢測更加難的是在圖片的每一個像素,像素是屬於小狗還是屬於屏幕?我們可以看一看今天用深度學習的方式,也已經可以把像素級的圖像分割做到這樣的水平。

大家可以想一想,如果能做到這樣的水平,今後無論是無人機還是無人駕駛,很多應用都可以做了。

這是我剛才提到的第一個問題,就是對物體的識別,比這個更難的是我們是不是理解了,計算機是不是理解了某一個圖片。我們看一看。Beyond遠遠超過了計算機視覺。如果只是用最近的方式去做搜索,其實它並沒有理解,比如說你的一個輸入是靠左邊這個人,它就把右邊這幾個從搜尋引擎返回,這個並不是理解,這還算不上理解。真正的理解是什麼呢?我給計算機看到有這麼一幅圖片,它能生成一句話,說本和他的爸爸在迪士尼樂園玩。

我如果讓計算機看這麼一幅圖(一個人打網球的照片),下面我想跟大家做一個小的互動,在這個具體的問題上,我們能不能超過圖靈測試,有兩句話:第一句話叫做一個人在網球場上手拿著一個網球拍。第二句話:有一個人在網球場上打一場比賽。大家覺得這兩句話哪一個是人寫出來的?哪一個是機器寫出來的。

(大家舉手後顯示比例基本上50%比50%)下面我們看看到底哪個是人寫的哪個是機器寫的。上面的是機器寫的,如果在座的諸位是50%的話,已經可以通過圖靈測試了。

我們再試一題,上面停了一輛自行車,有兩句話,一句話是小河邊停了一輛自行車,第二句話是水體旁邊有一輛自行車停在。哪句是計算機寫的?

(現場大部分人選擇第二句)現在大不部分人認為下面一句話是計算機寫的。我們來看看,下面是人寫的。我們又一次通過了圖靈測試。

這是給計算機看一個圖片,它生成的這麼一句話,比那更難一點的是前一陣歐巴馬一家帶著小孩來訪問,我們如果讓計算機看到這麼一幅圖片,它如果只是告訴我有幾個人在拍照也沒意思,它如果有本事告訴我說,Sasha歐巴馬、米歇爾歐巴馬,彭麗媛,我們大概前50萬名人都能認出來是誰,並且我們生成了一句話說,這幾個人在故宮前面拍照,已經可以達到這樣的水平。

再往下看,具體算法可能沒有那麼多時間去講。但基本上是從名人到具體的物體,通過各種深度學習的方式能生成出這麼一個自然語言的話。

我們再往下看,這就是整個的流程,算法等等就不用花時間去看了。已經可以讓計算機看到一個圖片,講出一句還挺像樣的話,下面還可以往哪裡走,我覺得至少四個方向可以走。第一個方向是說在語義的層面上,Go higher,我們能不能想到一些沒講出來,但它能推理出來的意思。第二個我們給它看一段視頻是不是也能講出一段話,Go longer。第三個是它能跟我聊天。第四個我可以問他具體問題,他能回答。

第一個,Go higher,如果我給計算機看這麼一幅圖片,今天能做到的水平就是這樣,有一群象,前面有一個人,這是我們之前可以做到的水平。今天可以做到的水平,因為有實體,我們可以說一群象在歐巴馬的旁邊,因為我們可以識別出這個人是歐巴馬。我們希望做到什麼水平?它引申的一些含義,我們人來看到這個可以想到很多引申含義,今年正好是美國總統大選年,民主黨是驢,歐巴馬是民主黨,共和黨是象,它的意思是說歐巴馬被共和黨的一些競選者在追趕,我們今後如果能生成這樣一句話,我們對圖片的理解真是到了一種認知的水平,但還沒有做到。

第二個,Go longer,我們給它看視頻,它也能生成一句話,當然這裡面有很多的算法,具體算法我就不一一介紹,基本上是用一個深度學習的網絡,然後目標函數裡面由兩種疊加在一起的新的水平。

這是我提的兩個方向,第一個把它的隱身含義講出來,第二個是把視頻也能夠用文字的形式表達出來。第三個我想提的是,比如說我們今天跟小冰聊天,我們敲一段文字,它也能回一段文字,我們給它上傳一張圖片,它是不是也能跟我們聊呢?今天它也能了。它今天可以做到的水平是,如果我上傳了一張圖片,它會說小眼神太犀利了,這就像人在聊天一樣,已經可以做到這樣的水平。比如說你想秀秀六塊腹肌,它會跟你說大叔真牛。不僅僅是文字的聊天,圖片也可以聊天,這都是得益於我們對計算機視覺技術的發展和深度學習的發展。

第四個方向,稍微花多點時間講講,我覺得這是很有意思的方向,不僅對科研、產業界來說都很有意思。叫做Visual Question Answering,我問計算機一個問題,什麼東西在自行車筐裡?我們希望它的答案是說狗,但是想做到這一點很難,你首先知道自行車在哪兒,筐在哪兒,筐裡有什麼東西,都不容易,但今天我們有技術,能夠把這個做到。怎麼做到呢?我稍微提一下這個算法。

四個部分,兩個輸入,第一個是你問的問題是什麼,你問的問題是說自行車的筐裡面是什麼,這是一句話,這是第一步。第二步是你同時還給計算機看一個圖片,有個Image model,我們用深度學習的方式把兩種不同的模式做兩次之後,就知道和這個問題最有關的部分就在亮的這個部分,這就是和問題發生關係的地方。如果知道這個區域和這個問題發生關係就有很大的可能性知道答案。

還有更多的幾個例子要跟大家分享,比如我們讓計算機看這幅圖片,問:在一片空曠的海灘上,兩個藍色的椅子中間那是什麼物體?這是它答案的過程,第二層聚焦到傘,一把太陽傘。還有更多的例子,在一片泥濘的土路上,什麼東西在拖著馬車?答案是馬在拖著馬車。右邊那個,筐的顏色是什麼?答案是紅色的。右下角這個女士戴著兩隻紅色牛的角,答案是說紅色的,它知道牛角的顏色是紅色的。這些都是我們今天通過計算機視覺的方式達到問題的回答水平。

剛才回顧過去50年計算機視覺發展的歷程,從最早的特徵提取,有直線轉角,直到說這是一個戶外的場景,場景裡面有人,到說這個圖片裡面這個人的名字是什麼,到生成一句話來描述這個圖片,到最後我剛才提到的Visual QA,還有很長的路要走,就是我們看到圖能講出一個故事來,這是我們今後要做的事情。

我今天的題目叫《計算機視覺從感知到認知的長徵》,長徵大家也知道,最早是從江西的瑞金開始長徵的,很具有裡程碑的事件就是遵義會議,最後很成功的走到陝甘邊區,今天的計算機視覺也是一個長徵,但還沒有到達陝甘邊區,今天2016年我們取得了很大的成就,很像遵義會議取得的成就,但今後還有很長的路要走,這就是長徵的一部分,怎麼樣最後到達陝北,至少三個方向可以想。第一個是計算機學習算法的本身。今天「深度學習」這個詞很熱。今天因為有了好的算法,深度學習算得很成功。

第一塊很重要的能讓我們到達陝北的就是計算機學習算法。第二個就是我們需要一些計算機的科學家,我們也需要和一些垂直行業的朋友們一起來做這件事情,比如我們是和做金融的朋友們,就像上午楊強講的,我們能預測股票市場。我們如果和懂醫療的朋友來做,可不可以做出更精準的醫療,如果和植物所的朋友來做這件事情,是不是可以做出一個用手機拍照任意的花,或者一個樹,我就知道這個花叫什麼名字,樹叫什麼名字,最早從哪裡來?等等。我想說這個的目的就是除了機器學習的專家之外,還要和很多垂直行業領域的專家一起合作這件事情。

第三個,右下角這個圈我覺得也一樣重要,我們需要高質量的數據,這三點如果我們都能做到了,機器學習算法本身的進步,我們和行業的專家們的合作和更多的數據的獲取,我們就能從瑞金經過遵義到達陝北。

謝謝大家!

主持人:剛剛下面的觀眾提了問題,其實你最後一頁PPT就是最好的答案,它說計算機從視覺感知到認知還需要哪些條件。但我還有另外一個問題,因為你剛剛給的都是圖片,如果給的是一段視頻,你會存在什麼樣的結果,如果沒有做的話,你會設想一下,這裡面可能會帶來什麼樣的希望和挑戰?

芮勇:你可能沒有很注意聽,我剛才把圖片變成文字之後,我講了四個方向,把視頻放進來以後今天也可以做到了,但視頻中確實很多挑戰,因為做圖片分析的時候,二維的做了,視頻的時候有一個時間軸,所以要一個3D的視頻學習的方式,也是可以解決的。謝謝!

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 微軟亞洲研究院:20年20人-虎嗅網
    從創始一代的李開復、沈向洋,到別人家的實習生何愷明;從在MSRA幹到退休的許峰雄,到投身創業浪潮湯曉鷗餘凱周劍,都是微軟亞洲研究院給整個行業帶來的財富。1999年,橫跨心理學和計算機兩大學科,加入微軟亞洲研究院。負責負責用戶界面、機器學習、大規模數據處理等方面的研究,成果斐然,深受比爾·蓋茨信任。2008年,辭去微軟亞洲研究院常務副院長加入阿里巴巴,現任阿里巴巴技術委員會主席。
  • 十九年來,從微軟亞洲研究院走出了他們-虎嗅網
    繼去年芮勇、何凱明和孫劍出走之後,昨天,微軟亞洲研究院再痛失一名老將,常務副院長馬維英已加入今日頭條。「黃埔軍校」的帽子戴久了便有些意味深長。研究院在最頂尖年會SIGGRAPH上發表的論文逐年上升,被MIT Technology Review評為全球最頂級的計算機科學研究院。背後卻是被當年的常務副院長王堅嘲笑「豬狗不如」,不分晝夜做研究,「那一年徹徹底底地把所有的人都滅掉」,沈向洋回憶起當時的情形。2004年,沈向洋升任第三任微軟亞洲研究院院長,兼首席科學家。
  • 江山代有才人出 | 微軟亞洲研究院建院二十周年
    ——前微軟亞洲研究院副院長,退休的金山軟體CEO,如今源碼資本投資合伙人;王堅——前微軟亞洲研究院常務副院長,阿里巴巴合伙人之一,技術委員會主席,「阿里雲」之父;馬維英——前>前微軟亞洲研究院常務副院長、今日頭條副總裁;許峰雄——前微軟亞洲研究院高級研究員,被譽為IBM「深藍」之父,於微軟亞洲研究院退休;湯曉鷗——曾擔任微軟亞洲研究院視覺計算組負責人,現商湯科技創始人;
  • 2017年ACM Fellow 出爐,楊強、芮勇、馬毅等多位華人入選
    當選 ACM Fellow 的程序讓我們能夠對哪些於計算機發展具有裡程碑意義的貢獻得以窺視,同時也讓我們認識到那些將汗水、靈感、洞察力奉獻在改善人類生活和發展全球經濟的人。考慮到 ACM 的全球影響力,2017 年 ACM Fellows 分別來自加拿大、中國、丹麥、德國、瑞士、英國和美國的大學、公司和研究中心。
  • 微軟沈向洋:計算機視覺未來在語義層 「兩大一精」是關鍵
    因為我自己選擇了機器人專業,當時實際是研究計算機視覺,我的導師對計算機語音非常的熟悉,是計算機語音的世界級專家。他問我你想學什麼,我說我想學計算機視覺,他說為什麼?我說我在文章裡看到人類認知、人類的感知,91%的信息量是從視覺來的,我說先把91%學到了,剩下的就簡單了。
  • 微軟亞洲研究院副院長周明離職,將加入創新工場AI工程院
    12月17日,澎湃新聞(www.thepaper.cn)獲悉,微軟亞洲研究院副院長周明近期已經從微軟離職,加入由李開復創辦的創新工場人工智慧工程院,擔任首席科學家。周明在自己的朋友圈公布了此消息,並對老東家表示了感謝:工作二十一年多,我學到很多,我非常感恩。1999年從清華加入微軟之際,曾立下兩個心願。1、和微軟同事一道建立一流的NLP研究組,2、與學術界同仁一道幫助中國和亞洲大幅度提升NLP(編註:自然語言處理)研究水平並進入世界前列。現在似乎這兩個目標實現了。感謝各位老師、各位同事和同學的一道努力。
  • 微軟亞洲研究院走過20年:從選一塊新地毯到開創一個新天地
    在計算機還龐大到足以佔滿一整個房間的70年代,他就敢提出「讓每一個家庭,每一張桌子上都擁有一臺計算機」這樣的使命,那時,他才20歲;而在26年前成立微軟研究院時他又提及了通用人工智慧的概念,並說到,「如果有一天計算機能看會想、能聽會講,可以理解人類,那該是多麼美妙的一件事情。」那時,他也才37歲。
  • 國內外有名的計算機視覺團隊和大牛匯總
    現任清華大學信息技術研究院指導委員會主任,微軟亞洲研究院技術顧問等。主要從事人工智慧、神經網絡、遺傳算法、智慧機器人、模式識別以及智能控制等領域的研究工作。在過去二十多年中,張鈸教授系統地提出了問題求解的商空間理論。近年來,他建立了神經與認知計算研究中心以及多媒體信息處理研究組。該研究組已在圖像和視頻的分析與檢索方面取得一些重要研究成果。
  • 被微軟打臉的「傳奇高管」疑為發幣項目站臺 合伙人是翻譯有誤
    文章開頭便強調於偉畢業於中國科大計算機系本科,美國華盛頓大學計算機系碩士,美國馬裡蘭大學電子和計算機工程系博士;全球知名人工智慧專家,曾任微軟(亞洲)網際網路工程院副院長,微軟全球合伙人,是微軟升職最快的員工之一。全文對於偉的事業成就描述的可謂「神乎其神」,指出其進入微軟後,主攻手寫識別項目,並且僅用3個月就將手寫識別正確率從75%提升至98%。由此獲得比爾蓋茨的誇獎和微軟「金星獎」。
  • 扒一扒被微軟打臉的「傳奇高管」:疑為發幣項目站臺,合伙人是翻譯...
    文章開頭便強調於偉畢業於中國科大計算機系本科,美國華盛頓大學計算機系碩士,美國馬裡蘭大學電子和計算機工程系博士;全球知名人工智慧專家,曾任微軟(亞洲)網際網路工程院副院長,微軟全球合伙人,是微軟升職最快的員工之一。全文對於偉的事業成就描述的可謂「神乎其神」,指出其進入微軟後,主攻手寫識別項目,並且僅用3個月就將手寫識別正確率從75%提升至98%。
  • 微軟亞洲研究院聯合亞洲高校,共建開放網絡平臺,助力AI加速網絡研究
    微軟亞洲研究院常務副院長周禮棟博士表示:「網絡是『新基建』的核心基礎設施之一,重要性日益凸顯。隨著 5G 時代來臨,應用越來越多樣,網絡環境也更加複雜,加上今年在線會議、在線教育、網絡直播等實時通信需求的激增,都對底層的網絡基礎提出巨大挑戰,將人工智慧技術用於應對網絡這種前所未有的複雜性成為大勢所趨的一種必然。
  • 微軟發言人宣布放棄開發平板電腦Courier計劃
    微軟成為Linux基金會「白金會員」小編點評:開源是一種包容精神,為微軟點個讚!早在20年前,微軟和Linux還是仇敵。微軟當時的CEO鮑爾默曾向開源社區開炮,他還把Linux作業系統比作癌症,甚至力勸政府不要對開源項目提供支持。那時還是2001年。不過,時過境遷,微軟和開源社區的聯繫越來越緊密。
  • 被微軟打臉的「傳奇高管」:疑為發幣項目站臺,合伙人是翻譯有誤
    文章開頭便強調於偉畢業於中國科大計算機系本科,美國華盛頓大學計算機系碩士,美國馬裡蘭大學電子和計算機工程系博士;全球知名人工智慧專家,曾任微軟(亞洲)網際網路工程院副院長,微軟全球合伙人,是微軟升職最快的員工之一。 全文對於偉的事業成就描述的可謂「神乎其神」,指出其進入微軟後,主攻手寫識別項目,並且僅用3個月就將手寫識別正確率從75%提升至98%。
  • 微軟亞洲研究院的新理念「數位化轉型即服務」是什麼?
    ——張益肇,微軟亞洲研究院副院長雷鋒網(公眾號:雷鋒網) AI 科技評論按:2018 年 5 月 8 日- 9 日,微軟亞洲研究院「創新匯」在北京舉辦了自成立後的首屆創新論壇。微軟亞洲研究院副院長、「創新匯」負責人潘天佑博士據雷鋒網了解,微軟亞洲研究院「創新匯」成立於 2017 年 11 月,由微軟亞洲研究院副院長潘天佑博士親自負責。
  • 計算機視覺領域的王者與榮耀丨CCF-GAIR 2018
    演講嘉賓名單  科技巨頭高管張益肇:微軟亞洲研究院副院長王熙:飛利浦中國副總裁、首席技術官  國際學術頂會總主席世界知名實驗室主任田捷:中國科學院自動化所研究員,分子影像重點實驗室主任, IEEE Fellow邢磊:史丹福大學醫學物理系主任,美國科學院院士候選人  獨角獸企業創始人與首席科學家孫劍:曠視科技首席科學家,前
  • 微軟亞洲研究院/工程院 交大訪問日程
    出訪人員: 沈向洋 博士 微軟亞洲研究院院長 首席科學家 張益肇 博士 微軟亞洲工程院 副院長 李航   博士 微軟亞洲研究院自然語言組 研究員 校友 鄭海濤 博士 微軟亞洲研究院無線網絡組 研究員 校友 黨映農 博士 微軟亞洲研究院多通道用戶界面組 副研究員 校友 鄒靜   碩士 微軟亞洲研究院高校關係部 高校合作專員