Google首席科學家韓國大學演講:大規模深度學習

2021-02-23 大數據文摘

2016年3月7日,谷歌首席科學家,MapReduce、BigTable等系統的創造者,Jeff Dean受邀韓國大學,演講主題《大規模深度學習》,這裡部分來自highscalability的文字和筆者Youtube上的聽錄。剛好演講在AlphaGo和李世石比賽之前,觀眾也問了他的預測,他只是說訓練了5個月的機器跟頂尖高手的差距不好說;還有人問道他喜歡的程式語言(C++愛恨交織,喜歡Go的簡潔,Sawzall才是真愛);在Google作為首席一天是怎麼過的(要吃好早飯,到處閒逛閒聊,找到那些每個領域專家一起攻克難題)。

本文首發微信公眾號「董老師在矽谷」,轉載請聯繫本人。

整合意味著理解如果你不理解信息中的奧秘,那麼你也很難去組織它。

Jeff Dean是Google系統架構組院士,在講座:「大規模深度學習構建智能計算機系統」中提到這句和Google的使命:整合全球信息,使人人皆可訪問並從中受益。早期他們通過收集,清理,存儲,索引,匯報,檢索數據完成「整合」的工作,當Google完成這個使命,就去迎接下一個挑戰。

理解到底是什麼含義?


看到這張圖,你馬上知道是小寶寶抱著泰迪熊睡覺。而看到下張街景,馬上意識到紀念品店裡面有打折信息。其實直到最近,計算機才可以提取圖片中的信息。

如果想從圖像去解釋物理世界,計算機需要去選擇跟那些感興趣的點,閱讀文字並去真正理解。

像下面的文字「car parts for sale(賣汽車配件)」,傳統的Google通過關鍵字匹配來給出結果,但更好的匹配是第二個。這是一個需求深度理解的過程,而不能停留在字面,要去做一個優秀搜索和語言理解產品。

Google的深度神經網絡歷史

Google跟其他公司的不同是,2011年就開始Google大腦計劃,當時想通過使用神經網絡來提升技術水準,但並沒有把研究做成像大學象牙塔那種,而是結合安卓,Gmail,圖片去改進產品解決真正問題。這對其他公司也是很好的借鑑,把研究和員工工作結合起來

神經網絡老早就開始研究,上世紀60年代發明,在80年代和90年代早期也流行過,後來又不火了。兩個原因:缺少計算能力去訓練數據模型,這樣也不能用來做更大規模的問題;2)缺少大量有效的數據集。而Google通過算法的力量,在加上他們強大的基礎架構,海量數據集創造了AI的絕佳溫床。

深度學習一開始從少數的產品組開始,一段時間後反響很好,能解決之前不能做的,就更多的團隊開始採納。使用深度學習的產品有:安卓,Apps,藥品發現,Gmail,圖片理解,地圖,自然語言,圖片,機器人,語音翻譯等。

深度學習能應用到很多領域原因是那些通用模塊:語音,文字,搜索詞,圖片,視頻,標籤,實體,短語,音頻特性。輸入一類信息,決定你想要的輸出,收集訓練數據作為你想要計算的潛在函數,然後就放手不管了。

模型很贊的原因是因為灌了很多原始形式的數據。你不需要教工程師很多特徵點,模型的力量在於從觀察一些例子就能自動識別數據中的有用信息。

深度神經網絡是什麼?

神經網絡就是一些從數據提煉的複雜函數。從一個空間輸入在轉化為另一個空間的輸出。這裡的函數不是像平方,而是真正複雜的函數。當你給出一些原始像素,比如貓,而輸出就是對象的類別。

深度學習中的「深度」指的是 神經網絡中的層數。這個系統的良好性質是一組簡單的可以訓練的數學函數集合。深度神經網絡適用於很多機器學習風格。

比如你給輸入一張貓的圖片,輸出是人工標記的貓圖片,這是 監督學習。你把很多這樣監督樣本給系統,讓它去學習近似的函數,如同從監督樣本中觀察出來的。

還有一種是非監督學習,給出一個圖片,你也不知道裡面是啥,系統可以學習去尋找在很多圖片中出現的模式。這樣即使不認識圖片,它也能識別所有的圖片中都有一隻貓。

增強學習也適用,這也是AlphaGo用到的技術。

什麼是深度學習?

深度網絡模型是類似於大腦行為的原理。但不是具體模擬神經元如何工作。而是一種簡單抽象的神經元版本。

神經元有一組輸入。真正神經元會有不同的強度的輸入。在人工智慧網中試圖去學習到這些邊上的權重,去加強不同輸入的聯繫。真正神經元通過輸入和強度的組合去決定要不要生成脈衝。

人工神經元不會產生脈衝,但會生成一個數值。神經元的函數就是通過非線性函數計算輸入的加權乘以權重之和。

典型的非線性函數就是整形線性單元(max(0, x)),在90年代很多非線性函數是很平緩的sigmoid()函數或者tanh()函數。但對於神經元來說產生的數值是不是更接近0對優化系統更有利。比如如果神經元有3個輸入 X1, X1, X3,權重分別是 -0.21, 0.3, 0.7,計算就是

y = max(0, -.0.21*x1 + 0.3*x2 + 0.7*x3)。

為了決定圖片到底是貓還是狗,這個圖片要經過很多層。這些神經元根據輸入來產生下一步。

最低層的神經元會查看像素的小塊。更高層的神經元會看下層神經元的輸出再決定是否生產。

這個模型也會錯,比如說這裡是貓,但事實上是狗。那麼做錯誤決定的信號就會返回到系統中做調整,讓剩餘的模型在下一次查看圖片時候,更可能輸出狗。這就是神經網絡的目標,通過模型小步調整邊的權重讓它更可能去得到正確答案。你可以通過所有樣本去聚合,這樣可以降低錯誤率。

學習算法其實比較簡單如下

選擇隨機訓練樣本「(輸入,標籤)」,比如上面貓圖和想要的輸出標籤,『貓』

運行神經網絡,在輸入上去查看它產生的。

調整邊的權重讓最後輸出更接近於「標籤」上的。

如何調整邊的權重去保障輸出更接近於標籤呢?

反向傳播:積分的鏈式法則在決定高層神經網絡中使用,如果選擇是貓而不是狗呢?得想辦法去調整高層的權重去讓它更可以決定是「狗」。

根據箭頭方向和權重去讓它更可能說是狗。不要步子邁得太大因為這種表面很複雜,微調一小步讓它下次更可能給出狗的結果。通過很多迭代以及查看例子,結果更可能會是狗。通過這個鏈式法則去理解底層參數改變是如何影響到輸出的。說白了就是網絡變化迴路反饋到輸入,使得整個模型更適應去選擇「狗」。

權重的微調

真正神經網絡通過億級的參數在億級的維度做調整,去理解輸出網絡。Google目前有能力如何快速搭建和訓練這些海量數據上的模型,去解決實際問題,在快速去不同廣泛的平臺去部署生產模型(手機,傳感器,雲端等)。

神經網絡的奇妙特性

就是說神經網絡可以用在很多不同問題上。

如果吸收更多數據,讓模型變大,結果也更好。

如果你輸入更多數據,但沒有把模型變大,模型的能力就會受限在一些數據集中的明顯特徵。通過增加模型的規模,讓它不僅記住明顯的,還有一些也許出現很少的細微特徵。

通過更大的模型,更多數據,計算需求也更大。Google很多精力花在如何提升計算量,訓練更大的模型。

在Google深度學習有哪些強大應用?1)語音識別

第一個部署深度神經網絡的小組。他們實現的新模型基於神經網絡而不是隱馬爾可夫模型。這個問題是把從150毫秒的語音去預測中間10毫秒吞掉的聲音。比如到底是ba還是ka的聲音。你得到一個預測的序列,再通過語言模型去理解用戶所說。

一開始的版本就把識別錯誤率降低了30%,確實非常厲害。後來就研究一些複雜模型去加強網絡,進一步降低錯誤率。現在當你對著電話說話,語音識別比五年前強多了。

2)ImageNet挑戰

ImageNet是6年前公布的。裡面有100萬張圖片,算是計算機視覺領域最大的。圖片中包含1000種不同分類,每一類有1000張圖片。比如裡面有上千張不同的豹子,摩託車等,一個麻煩的是不是所有的標籤都是對的。

在神經網絡使用之前,最好的錯誤記錄是26%,2014年 Google錯誤率暴降到6.66%取得冠軍,然後到了2015年錯誤率下降到3.46%。這是什麼概念,大家注意到Andrej人類的錯誤率也有5.1%(他還是花了24小時訓練後的結果)。

總之這是個又大又深的模型,每個盒子就像神經元的一層去進行卷積操作。

3)圖片類別識別

計算機在花卉識別上很強大,這是非常好的模型,能夠識別細微差別。

一般的效果,比如在菜品識別。

計算機也有犯錯的時候,關於錯誤敏感性看一看上面的,比如左邊鼻涕蟲當成蛇,右邊也不知道是什麼鬼。

4)Google圖片搜索

理解圖片中像素的能力,Google圖片團隊開發了不用標籤就可以搜索圖片的功能。比如你可以去找雕像,素描,水,而不需提前標註。

5)街景圖像

在街景中如何識別裡面的文字。首先要找到文字部分,模型能夠去有效預測像素中熱點圖,那些含有文字的像素點。訓練的數據就是包含文字劃分的多邊形。

因為訓練數據中包括不同的字符集,這樣在多語言下也沒問題。也要考慮大小字體,遠近,不同顏色。訓練的模型相對容易,就是卷積神經網絡嘗試去預測每個像素是否包括文字。

6)Google搜索 RankBrain

RankBrain 2015年啟動,在搜索排名(前100位排第三),裡面難點是搜索排序需要了解模型,要理解為什麼要做某個決定。當系統發生錯誤為什麼做那個。

調試工具準備好,需要足夠的理解能力嵌入模型,去避免主觀。總體上是不想手工調參數。你需要嘗試理解模型中的預測,去理解訓練數據是否相關,是否跟問題無關?你需要訓練數據並應用到別的上面。通過搜索查詢的分布你能得到每天的變化,事件發生後改變也隨時發生。你要看分布是否穩定,比如語音識別,一般人不會改變音色。當查詢和文檔內容頻繁變化,你要保證模型是新的。我們要搭建通用工具去理解神經網絡裡面發生了什麼,解釋什麼導致這個預測。

序列模型

很多問題都可以映射到從一個序列到另一個序列的規律。比如語言翻譯,從英語翻譯到法語,就是把英語的序列單詞轉化到法語序列單詞。

神經網絡在學習複雜函數時特別有用,這個模型學習從英文到法文的句子。句子以單詞為單位,以結束符作為信號。訓練模型在遇到結束符時開始產生另一個語言的對應句子。而模型函數就是把語言中語句對作為訓練數據。

每一步都在詞典表中的單詞產生概率分布。在推理時候通過一些搜索來實現,如果你最大化每個單詞的概率,這樣找的不是最可能的句子。直到找到最大可能的句子找到才結束搜索。

這個系統在公開翻譯系統中表現出色。大多數其他翻譯系統需要手工編碼或機器學習的模型只是在一小部分使用,而不是像這種整體的端到端的學習系統。

這些領域都是可以歸到序列類的方法

7)智能回復

智能回復是另一個序列類的例子。在手機上你如何更快回覆郵件,打字很累。

Gmail組開發了一個系統能夠去預測郵件回復。第一步就是訓練小量模型去預測如果消息是某一類的,怎麼做簡短回復。如果是一個更大,計算能力更強的模型將消息作為一個序列,嘗試預測序列的響應語。比如對於節日邀約,最可能的三個答覆是「算上我們」,「我們會去的」,「對不起,我們有事沒法耍」。

8)看圖說話

把之前開發的圖片模型與序列類模型結合一起。圖片模型作為輸入。這裡就不是閱讀英文句子了,而是看圖片的像素。

接下來就是訓練生成字幕。訓練集有5個由不同的人寫的不同的字幕。總共100萬圖片,70萬條語句。效果如下

兩個模型翻譯的都不錯:1)一個小孩緊緊的抱住毛絨玩具。2)一個寶寶在泰迪熊旁邊睡著了。

上面是一些好玩的出錯語句,為啥會錯,其實你自己看了也明白。

9)機器視覺和翻譯結合

翻譯團隊寫了一個app,使用計算機視覺來識別鏡頭中文字,再翻譯成文本,最後再圖片本身覆蓋翻譯好的文字。模型足夠小可以運行在所有設備上。

直接在手機上跑一些模型中的重要方法。智能化將轉移到設備端,這樣不會依賴遠程雲端的大腦。研究上的努力和成果轉化

Google 非常在乎研究轉化效率。就是要快速訓練模型,理解那些做的好的和不好的,再想下一步實驗。模型應該再分鐘或者小時,而不是幾天或者幾周。這樣讓每個人都做研究更高效。

機器學習發展會更好,更快。Jeff說機器學習社區發展得特別快。人們發布了一篇論文,一周內就有很多研究小組跟進,下載閱讀,理解實現,再發布他們自己的擴展。這跟以前的計算機期刊投稿完全不同,等6個月才知道是否被接收,然後再過3個月最後發表。而現在把時間從一年壓縮到一周,真不得了。

如何快速訓練大量模型

模型的並行化

神經網絡有很多固有的並行化,所有不同的神經元與其他的也是保持獨立,特別本地接納的,神經元僅僅接受一小部分比它更低的神經元作為輸入。

在不同的GPU上和不同機器上可以做並行。只有邊界上的數據需要通信。

數據並行化

優化的模型參數集不應該在一臺機器上或者一臺中心伺服器上,應該有多個模型拷貝,這樣協作區優化參數。

在訓練過程中讀取數據的隨機部分。每一個拷貝在模型中獲取當前的參數集,讀取在當前梯度下的一點數據,找到想要的參數調整,在發送調整到中心的參數伺服器中。這個參數伺服器會對參數做調整。整個過程重複,這個也會在很多拷貝中進行。有些使用500份在500臺不同機器上的拷貝,為了快速優化參數並處理大量數據。

一種方式是異步的,每一個都有自己的循環,取得參數,計算梯度,發送它們,不需要任何控制和跟其他的同步,不好的是當梯度返回到參數可能在計算結束後就被移走了。對有些例子可能有50到100份的拷貝。還有一種是同步,一個控制器控制所有的拷貝。

TensorFlow

在過去的幾年間,我們已經建立了兩代用於訓練和部署神經網絡的計算機系統,並且將這些系統應用於解決很多在傳統上來說對計算機而言很難的問題。我們對許多這些領域的最新技術做了很大的改進。

第一代系統DistBeliet在可擴縮性上表現很好,但在用於研究時靈活性達不到預期。對問題空間的更深理解讓我們可以做出一些大幅度的簡化。

這也是第二代系統的研發動機,用 TensorFlow 表達高層次的機器學習計算。它是C++語言編寫的核心,冗餘少。而不同的前端,現有Python和C++前端,添加其他語言的前端也不是難題。

計算可以用一張數據流圖來理解。

我們輸入數據、權重、誤差以及標籤,在不同節點進行不同的運算。

TensorFlow名字的意義

Tensor(張量)意味著N維數組。1維時就是向量,2維時就是矩陣;通過圖像可以代表更高維的數據流,比如,圖像可以用三維張量(行,列,顏色)來表示。

Flow(流)意味著基於數據流圖的計算。有許多運算(圖中的節點)應用在數據流上。

張量從圖象的一端流動到另一端,這就是「TensorFlow」。「邊」代表張量(數據),節點代表運算處理。

這是使用張量計算的示意圖。

這是使用狀態計算的示意圖。

這是使用分布式計算的示意圖。

它能夠在各個平臺上自動運行模型:電話上,單個機器上(CPU或GPU),由成百上千的GPU卡組成的的分布式系統。

總結


如果你還沒想通過深度學習網絡去解決你的數據問題,你還是要趕緊考慮。TensorFlow 讓每個人更容易獲取深度學習能力。

高度擴展的設計,更快的實驗速度加速研究進程

容易分享模型,開發代碼應用到可重用的效果

通過同一個系統把研究工作直接用於生產環境

最後說一些quora上大家給Jeff Dean大神編的段子,供君一樂

Jeff Dean當初面試Google時,被問到「如果P=NP能夠推導出哪些結論」,Jeff回答說:「P = 0或者N = 1」。而在面試官還沒笑完的時候,Jeff檢查了一下Google的公鑰,然後在黑板上寫下了私鑰。

編譯器從不警告Jeff Dean,只有Jeff警告編譯器。

Jeff Dean的編碼速度在2000年底提高了約40倍,因為他換了USB2.0的鍵盤。

Jeff Dean被迫發明了異步API因為有一天他把一個函數優化到在調用前就返回結果了。

Jeff Dean曾經寫過一個O(n2)算法,那是為了解決旅行商問題。

Jeff Dean的鍵盤只有兩個鍵,1和0。

Jeff Dean失眠的時候,就Mapreduce羊。
參考文章


往期精彩文章推薦,點擊圖片可閱讀

阿法狗是如何工作的?卡內基梅隆大學博士用54頁PPT給你答案


讀《Nature》論文,看AlphaGo養成

機器視覺與深度神經網絡—洗去浮華,一窺珠璣

推薦關注「董老師在矽谷」





相關焦點

  • NVIDIA首席科學家Bill Dally將在GTC中國線上大會發表主題演講
    全球最負盛名的計算機科學家之一、NVIDIA研究院負責人BillDally將於GTC中國線上大會發表主題演講,GTC中國線上大會是近期聚焦AI、深度學習、高性能計算技術的全球頂級會議。Dally於2009年加入NVIDIA並擔任首席科學家兼NVIDIA研究院高級副總裁之前,曾擔任史丹福大學的計算機科學系主任。同時,Dally也是美國國家工程院院士、美國藝術與科學研究院、電氣與電子工程師學會和計算機學會成員。
  • NVIDIA首席科學家Bill Dally將於GTC 中國線上大會首日發表主題演講
    全球最負盛名的計算機科學家之一、NVIDIA研究院負責人Bill Dally將於GTC中國線上大會發表主題演講, GTC中國線上大會是近期聚焦AI、深度學習、高性能計算技術的全球頂級會議。
  • 搜狗首席科學家柳超博士和他的「字根嵌入」技術
    柳超,出生於河南,漢族人,於1999年獲得河南省理工科高考第一名,2003年畢業於北京大學計算機系,2007年在韓家煒老師的指導下,獲得美國伊利諾伊大學(UIUC)計算機碩士與博士學位。
  • 百度IDL傑出科學家徐偉出走加入地平線 擔任通用AI首席科學家
    今天凌晨,百度深度學習實驗室(IDL)傑出科學家徐偉正式宣布離職,加入地平線機器人(horizon.ai)擔任通用AI首席科學家,在矽谷建立General AI Lab,目標是做出具有人類這樣的學習能力的機器。   據了解,徐偉今天凌晨在朋友圈發布消息稱:「開啟新的旅途。
  • 是誰「挖」走了首席科學家?
    Moeednc2014年5月,吳恩達加入百度,擔任百度公司首席科學家,負責百度研究院的領導工作,尤其是百度大腦計劃。此前曾作為斯坦福計算機系的副教授,師從機器學習的大師級人物 Michael I. Jordan。據說他的課程火爆異常,曾有超過800名學生選修。Moeednc2011年,吳恩達創建了谷歌的深度學習團隊,領導傳說中的「谷歌大腦」項目,也就是著名的「讓貓識照片」。2014年,在當時的百度深度學習研究院(IDL)常務副院長餘凱推動下,吳恩達加盟百度,並創立了百度在矽谷的研究院。
  • AI WORLD 2016世界人工智慧大會終極參會指南(演講劇透)
    他 1991 年在麥吉爾大學獲得博士學位,此後在麻省理工學院跟從 Michael Jordan 做博士後研究,之後在貝爾實驗室與 Yann LeCun、Patrice Simard、Léon Bottou、Vladimir Vapnik 等人一起工作。後來他回到蒙特婁大學,現在是該校計算機科學與運籌學系機器學習實驗室(MILA)主任,他也是加拿大的統計學學習算法研究主席。
  • 1分鐘了解2020 Google 開發者大會主題演講
    今年是大會的第五個年頭,首次全線上呈現,14+ 產品線,50+ 精彩技術演講,70+ 技術專家,連續六天,精彩不止! 想知道大會首日都有哪些精彩內容?    1分鐘了解主題演講 今年大會上,谷歌為開發者帶來了一大波開發技術和工具更新,助力更高效、更輕鬆的開發體驗。
  • 2020年深度學習發展大盤點及對2021年深度學習的未來展望|極客雲算
    深度學習框架作為AI底層工具,對個人而言是進入深度學習世界的一把鑰匙,掌握深度學習框架並不等於理解了深度學習,要在AI開發中有所作為,關鍵還是要真正理解框架背後的技術、實踐和生態。隨著近年來的人工智慧發展,2020年深度學習依然是發展最快的領域之一,直奔未來工作。其發展是多方面的,而且是多方位的。
  • 科學家開發出一種基於深度學習的生物醫學圖像分割方法
    科學家開發出一種基於深度學習的生物醫學圖像分割方法 作者:小柯機器人 發布時間:2020/12/9 13:32:53 德國海德堡大學Klaus H.
  • Facebook首席科學家分享最新AR/VR成果
    其中,首席科學家麥可·亞伯拉什通過視頻介紹了團隊的研究及相關進展。亞伯拉什首先引用賈伯斯於2005年在史丹福大學畢業生演講中針對PC圖形界面未來發展方向的名言(You couldn’t argue about the inevitability, it was so obvious)指出,正如始於上世紀90年代的第一波HCI革命一樣,基於虛擬實境和增強現實的第二波HCI革命同樣不可避免。
  • 2020 ACM傑出科學家名單出爐:葉傑平、崔鵬等26位華人學者上榜
    高劍峰,微軟研究院AI深度學習小組的合作夥伴研究經理,IEEE院士。她博士就讀於密西根大學計算機科學系,本科就讀於北京大學計算機專業。她的研究興趣包括HTAP、Hadoop上的SQL、大數據聯合、圖形分析平臺以及用於機器學習的大規模系統。她是ACM高級會員和IEEE高級會員,曾獲得SIGMOD 2019研究重點獎、EDBT 2018最佳論文獎、2016年和2019年的IBM傑出技術成就獎,2019年IBM研究部門獎以及2008年密西根大學的傑出學術成就獎。
  • 吳尊友、薛其坤等科學家接力演講
    中新網北京1月5日電 (記者 張素)在「2021科學跨年之夜」上,中國疾病預防控制中心流行病學首席專家吳尊友、中國科學院院士薛其坤等十餘位科學家接力演講。資料圖:中國疾病預防控制中心流行病學首席專家吳尊友。
  • 書單丨介紹幾本有深度的書籍,讓我們深度思考和學習(二)
    06 《深度學習:參與世界 改變世界》《深度學習:參與世界 改變世界》介紹了在學校、地區和系統中深度學習變革的實踐,主要內容分為三個部分。第1部分:參與世界,改變世界。通過討論「為什麼要深度學習」「是什麼帶來了深度學習」和「為什麼深度學習如此重要」,為整個學習系統的強大變革奠定了基礎。然後,作者引入一種模式來學校、地區和系統中的學習變革。第2部分:生活實驗室。考察了一項激動人心的社會運動,該運動正在影響全球成千上萬的學生、教師和家庭。
  • 王越院士受聘為深圳北理莫斯科大學工程系首席科學家
    中國教育在線訊 7月27日,深圳北理莫斯科大學首席科學家聘任儀式在北京舉行。中國科學院院士、中國工程院院士、北京理工大學名譽校長王越教授受聘為深圳北理莫斯科大學工程系首席科學家。深圳北理莫斯科大學校長李和章為王越院士頒發聘書。
  • 深度學習用於多模態語義學習簡述
    與傳統方法不同深度學習是通過將無監督逐層預訓練與有監督微調(fine-tuning)有機結合,實現端到端方式的特徵學習。其基本動機是構建多層網絡來學習隱含在數據內部的關係,從而使學習得到的特徵具有更強的表達力和泛化能力。在大規模數據上進行的實驗表明:通過深度學習得到的特徵表示在自然語言處理(詞向量學習)、知識圖譜構建、圖像分類和語音識別等領域表現出良好的性能。
  • 乾貨分享&創意盛宴WAVESUMMIT+2020深度學習開發者峰會等你來!
    由深度學習技術及應用國家工程實驗室與百度聯合主辦的WAVE SUMMIT+2020深度學習開發者峰會將於12月20日在北京舉行。目前峰會官網已正式上線,可以通過官網報名參會或觀看直播。WAVE SUMMIT是中國深度學習開發者每年兩次的技術盛會,WAVE SUMMIT+ 2020是今年的第二場。
  • 聲網首席科學家鐘聲:如何解決 RTE 高質量傳輸挑戰?
    2020 年 11 月 21 日,在 GTLC 全球技術領導力峰會上海站 & 蘇州站,聲網 Agora 首席科學家鐘聲,從 5G 的加速發展入手,深入分享了 RTE 實時互動技術的挑戰與解決方案,以下為演講整理內容,Enjoy~ 鐘聲,聲網 Agora 首席科學家,北京大學數學系學士和博士,曾任海信晶片總經理、博通資深主任科學家
  • 歷經13年,Google終於實現量子霸權
    2006年,Google科學家聶文(Hartmut Neven)開始探索一個新的計劃——用量子運算來加快機器學習的速度,並催生了Google AI量子團隊。接著2014年,美國物理學會院士馬丁尼斯(John Martinis)加入了Google,擔任Google量子硬體首席科學家,領導構建量子電腦的工作。