李開復圖靈獎推薦信曝光:AI時代裡,Hinton是最值得嘉獎的人

2021-01-19 量子位

李根 唐旭 發自 凹非寺 量子位 報導 | 公眾號 QbitAI

3月27日,2018年圖靈獎嘉獎正式揭曉:深度學習三巨頭Yoshua Bengio、Geoffrey Hinton,Yann LeCun一起榮膺計算機領域的最高榮譽。

ACM評委會頒獎詞稱:表彰他們以概念和工程的突破,讓深度神經網絡成為計算關鍵部件。

其中,72歲的Geoffrey Hinton更是眾望所歸,在年盛一年的呼聲之後,終於加冕圖靈獎。

評選揭曉後,量子位獲悉,其實今年全球多位AI領域影響力科學家,就已經提名Geoffrey Hinton且撰寫了推薦信。

按照圖靈獎提名推薦流程,推薦人須與被推薦者曾經共事。

所以包括Google研究負責人Jeff Dean、創新工場董事長李開復、微軟研究院掌舵者Eric Horvitz,以及此次一同獲獎的Yann LeCun等,都因曾經共事而提名了Geoffery Hinton。

現在,我們獲得授權,披露李開復向ACM圖靈獎評選委員會提名Geoff Hinton的推薦信。

需要說明的是,原件為英文,量子位進行了編譯。

但強烈推薦學有餘力的盆友直接讀英文原文(後附),一方面是因為李開復圍繞學術、產業和教育等三大方面,對Geoffrey Hinton進行功績介紹,字裡行間也不乏一些鮮為人知的小故事,還有溢於言表的欽佩和讚美。

另一方面,也確實鍛鍊英文的好機會。

OK,Here we go~

李開復推薦信(量子位編譯版)

尊敬的ACM圖靈獎評選委員會:

我謹以此文表達個人最強烈的推薦和支持,提名Geoff Hinton為本年度的圖靈獎候選人。這是人工智慧的時代,而在人工智慧領域,沒人能比Geoff更有資格獲得這份嘉獎。

我現在是創新工場董事長及CEO,並曾作為高管任職於蘋果、SGI、微軟和谷歌。我曾是卡內基梅隆大學的助理教授,同時在這所大學獲得了博士學位。

也正是在CMU,1983年,我作為一名博士生結識了Geoff:修讀了他的神經網絡課程;並和他的研究團隊一起,嘗試將神經網絡應用於語音識別;我還在他的指導下完成了自己的輔修課程論文(關於將貝葉斯學習應用於博弈遊戲),我的博士論文(用機器學習方法進行語音識別),也曾向Geoff和他的團隊尋求過建議。

△Hinton和李開復2017年會面,量子位配圖

雖然Geoff並非我的博士生導師,但他對於我博士論文的影響卻十分巨大。他的學生Peter Brown(統計機器翻譯的共同發明人,如今文藝復興科技的CEO)當時是我的老師,也正是他教會了我如何把不同種類的機器學習算法應用於語音識別,為我的博士論文打下了基礎。

其後1988年,我的博士論文實現了當時最好的語音識別模型,也促使語音識別領域,將重心從專家系統方法轉移到機器學習方法。鑑於Geoff的才華、堅韌和慷慨,如果我能從Geoff和Peter身上受益如此之多,想必還有成千上萬的受益者跟我一樣。

Geoff對於AI領域的貢獻是巨大、無可比擬的。在我最近出版的暢銷書 AI Supowerpowers: China, Silicon Valley, and the New World Order(中文名《AI·未來》)中,以通俗的說法描述了Geoff對於AI領域的貢獻:

曾經,人工神經網絡能做的事非常有限。複雜問題若要得出準確的結果,必須構建很多層的人工神經元,但神經元層數增加後,研究人員當時還未找到針對新增神經元有效的訓練方法。在21世紀頭10年的中期,深度學習這項重大的技術性突破終於到來,知名研究人員傑弗裡·辛頓找到了有效訓練人工神經網絡中新增神經元層的方法。這就像是給舊的神經網絡打了一針興奮劑,使它們的能力倍增,可以執行更多、更複雜的工作,例如語音及物體識別。性能大增的人工神經網絡——現在有了新的名字「深度學習」——開始把舊的系統遠遠甩在身後。多年來對神經網絡根深蒂固的成見讓人工智慧的許多研究人員忽略了這個已經取得出色成果的「邊緣群體」,但2012年傑弗裡·辛頓的團隊在一場國際計算機視覺競賽中的勝出[1],讓人工神經網絡和深度學習重新回到聚光燈下。在邊緣地帶煎熬了數十年後,以深度學習的形式再次回到公眾視野中的神經網絡法不僅成功地讓人工智慧回暖,也第一次把人工智慧真正地應用在現實世界中。研究人員、未來學家、科技公司CEO都開始討論人工智慧的巨大潛力:識別人類語言、翻譯文件、識別圖像、預測消費者行為、辨別欺詐行為、批准貸款、幫助機器人「看」,甚至開車。

如果就學術成果而言,Geoff的引用超過25萬次,其中一半以上來自於過去5年;他的H指數是驚人的142;他是波茨曼機以及通過梯度下降法實現反向傳播(前者與Terry Sejnowski共同發布於1983年,後者則在1986年與David Rumelhart共同發布於《自然》雜誌)兩項開創性工作的共同發明人,這些工作引入了神經網絡中隱藏層的思想,以及一種用於對其附屬參數進行訓練的優美、易於計算的方法。

隱藏層讓軟體從「人類控制「(如專家系統)下得到解放,而反向傳播則讓非線性組合系統發現突出特徵成為可能,以一種更接近於目標而非人類驅動的方式。

然而,這些思想對於其所處時代而言,當時過於超前。因為當時並沒有足夠的數據和算力,能讓這些理論上的方法解決實際生活中的問題,或是在競爭中壓倒其他方法。

於是在20世紀80年代初期,該領域被專家系統所統治,直到80年代末期,專家系統因過於脆弱和難以擴展成為歷史。

不過替代專家系統的也並非Geoff提出的構想(那時還太早),而是妥協於少量數據和算力的簡化版本的神經網絡。

我的博士論文(使用了隱馬爾科夫模型)討論的就是其中的一種。這些簡化過的方法確實能在一部分應用上作出貢獻,但如同專家系統一樣,它們並不能在那些最難解決的問題上進行擴展,如下圍棋、人類水平的語音和視覺。

然而時來運轉,從1985年到2015年,全球數據量和算力發生了巨大的增長。

舉例來說,我在1988年的博士論文使用了當時最大的語音資料庫,但它也只有100MB的大小。

而今天,最好的語音識別系統要在100TB的數據上進行訓練——這是一百萬倍的提升。有了數據上如此巨大的提升作為支持,Geoff的思想最終閃耀了起來——他的方法能將層的數量由1增加到1000,而數據量和模型複雜度的提升會使得深度學習系統持續進步。

事後再看這些問題,顯得異常容易。但在當時,現實卻是非常殘酷的。20世紀90年代對於像Geoff一樣的神經網絡研究者而言,是最黑暗的時刻。

Geoff早期的理論工作創造出了智能的火花,但數據和算力的匱乏卻阻礙了這些深度學習系統展示出更優秀的性能。隨著科研經費消耗殆盡,許多神經網絡研究者將自己的工作轉移到了其他領域。然而,面對黯淡而又浮躁的科研資助環境,Geoff依然作為少數研究者(其他關鍵性研究者包括Yann LeCun和Yoshua Bengio)堅持了下來,不懈地將神經網絡方法繼續向前推進。

他搬到了加拿大,根據受限的經費環境調整了團隊,而後繼續努力將科學的邊界向前拓展。

Geoff在接下來的30年中持續地為神經網絡方法做著貢獻,其中包括多專家模型、亥姆霍茲機、神經動畫生成系統、概率推理模型、隨機領域嵌入、鄰域組件分析、t-SNE,以及諸多創新思想和研究。

鮮有某項技術可以徹底顛覆多個領域的研究,而深度學習就是其中之一。從2010年到2016年,本質上講,整個感知領域——語音識別、圖像識別、計算機視覺都轉移到了深度學習的路徑上,就是因為Geoff和他的同事們證明了——對於感知而言,深度學習就是最佳也最能普及的方法。

在整個人工智慧領域,人類的感知能力(聽、看和理解)被視作人類獨有的天賦,但對於AI而言,這是一個巨大挑戰。值得一提的是,還有一項巨大的挑戰是下圍棋,已經被Deepmind開發的AlphaGo,同樣使用深度學習方法攻克了。當時震驚了整個世界,也成了「AI革命」的催化劑。

現在回顧,Geoff的團隊是如此顛覆計算機視覺研究的:2012年,他的團隊構建了一個基於神經網絡的系統,在ImageNet 1000個類的物體識別競賽中將錯誤率一下降低了40%。

在此之前,計算機視覺領域的研究社群已經習慣了每年一小部分的增量提升,而Geoff團隊的成績震驚了整個社群——人們未曾想像過,一個「局外人」會以一種「非傳統方法」以如此大的優勢贏下競賽。

如果說反向傳播是Geoff最重要的理論貢獻,那麼其團隊在ImageNet競賽中取得的成果則是Geoff最為人認可的貢獻。那屆ImageNet競賽結果所掀起的微波,最終成為了深度學習大潮中的滔天巨浪。

深度學習的浪潮如今也正在改變每一個行業。舉例來說,作為一名身處中國的投資人,我本人也品嘗過這股春風帶來的甘霖:Geoff在2012年發表的論文以及當年ImageNet上的成果,為4家中國的計算機視覺公司帶來了靈感,而現在他們的總估值超過120億美元。但請記住,這還只是Geoff的工作在一個國家、一個小小的領域內帶來的成果。

此外,Geoff的工作還使得深度學習顛覆了語音識別領域(也是我博士時期的研究方向),幫助當時加盟百度的吳恩達,在2015年使得機器識別的準確度超越人類。

從更廣闊的視角上看,世界上的每一家科技巨頭(谷歌、微軟、IBM、Facebook、亞馬遜、百度、騰訊和阿里巴巴)都為深度學習打造了自己的平臺,甚至將自己重新標榜為「AI公司」;而在風投領域,我們則見證了深度學習驅動下大批獨角獸公司的出現(僅在中國就有超過20家)。

同時,由於深度學習需要的強大算力無法從傳統的CPU中獲得,為了負載深度學習所需的工作量,GPU開始被大規模使用,並由此引發了英偉達的崛起以及半導體工業的復活。

最為重要的是,我們的生活已經發生了深刻的變化:從搜尋引擎,到社交網絡再到電子商務,從無人商店到無人汽車,從金融到醫療,幾乎所有能想像到的領域,都被深度學習的力量所重塑,或是顛覆。

在任何具有充足數據的領域,深度學習在用戶體驗、用戶粘性、營收和利潤方面都帶來了極大的提升。深度學習背後的核心思想(始於反向傳播)——一個目標函數可以被用來使商業指標最大化——已經對所有行業造成了深刻的影響,並幫助那些擁有數據、擁抱機器學習的公司獲得了難以置信的利潤。

總的說來,人工智慧可以說是當今我們能夠成熟應用的技術中,最為令人興奮的一種。普華永道和麥肯錫預計,在2030年以前,AI會給全球GDP帶來12到16萬億美元的增長。

而AI領域最重要的進展,以及AI技術的成熟度被堅信的首要原因,就是Geoff在深度學習方面的工作成果。

誠然,每一位圖靈獎的獲獎者都對計算機科學領域有著極其重大的影響,但極少數能像Geoff一樣,改變了整個世界。

在變革者的角色之外,Geoff還是一位真正的思想領袖。雖然他總是言辭溫和,他卻是一位真正塑造並重塑整個研究社群的精神領袖。

他不知疲倦地教誨,不只是對他的學生,更是對這個世界。

正如他1986年創辦聯結主義學院時,親自與在計算機視覺和語音處理領域的人們去進行溝通,說服他們去理解並擁抱機器學習。然而,當2018年所有的工作都獲得了成功,整個世界都投入了深度學習的懷抱之時,他還繼續指出一條全新的道路。

在行業紛紛向深度學習靠攏,大公司們不斷收集更多的數據並開始引領深度學習的「工業化」之時,他卻號召人們向前一步,去創造「下一個深度學習」。換而言之,解決AI根本問題的一種全新方法,幫助機器更接近真正的人類智慧。

他在思想上的領袖魅力來源於他畢生的願景,以及對於更好地去理解人類認知能力的追尋。儘管深度學習是一項正在改變世界的重大突破,他卻僅僅將其視為實現自己長期願景路途中的一塊踏腳石。他最近在膠囊網絡方面的新工作,也正再一次讓研究者們重新審視自身在Geoff願景中的角色和責任。

我堅信,Geoff就是今天的人工智慧領域內最重要的人物,沒有之一。

他對於學界和業界的貢獻同樣地突出。他不僅是一位優秀的、引領性的學者,亦是一位孜孜以求、慷慨、堅韌、優雅、有原則的紳士。他是所有年輕計算機科學家的楷模。他的工作大大超越了神經網絡和機器學習的範疇,極大地影響了計算機視覺、語音及信號處理、統計學、認知科學以及神經科學。

我想不出其他任何人比他更有資格獲得圖靈獎,並在此敦促評選委員會在今年選擇Geoff作為獲獎人。

英文原件內容

Dear ACM Turing Award Committee Members:

I am writing to give my strongest recommendation to support Geoff Hinton’s nomination for Turing Award. This is the decade of Artificial Intelligence, and there is no one more qualified than Geoff in AI.

I am the Chairman and CEO of Sinovation Ventures, and have previously held executive positions at Apple, Microsoft, SGI, and Google. I was an assistant professor at Carnegie Mellon, and also received my Ph.D. there. I got to know Geoff at Carnegie Mellon, when I entered as a Ph.D. student in 1983. I took classes on neural networks from him, worked with his research team on applying neural networks to speech recognition, and was supervised by him for my minor thesis (on applying Bayesian learning to game-playing), and consulted him and his team on my Ph.D. thesis (machine learning approach to speech recognition).

While Geoff was not my Ph.D. advisor, his impact on my Ph.D. thesis was tremendous. His student Peter Brown (co-inventor of statistical machine translation, now CEO of Renaissance Technologies) was my mentor, and taught me how to apply various types of machine learning algorithms to speech recognition. This was a primary reason that helped my Ph.D. thesis to become the best-performing speech recognizer in 1988, which helped shift the speech recognition field from expert-systems approach to machine-learning approach. If I have benefited so much from Geoff and Peter, there must be thousands of other beneficiaries, given Geoff’s brilliance, persistence, and generosity.

Geoff’s contributions to AI are immense and incomparable. In my recent best-selling book AI Supowerpowers: China, Silicon Valley, and the New World Order, I described Geoff’s contribution as follows, in layman’s language:

Deep learning’s big technical break finally arrived in the mid-2000s, when leading researcher Geoffrey Hinton discovered a way to efficiently train those new layers in neural networks. The result was like giving steroids to the old neural networks, multiplying their power to perform tasks such as speech and object recognition.

Soon, these juiced-up neural networks—now rebranded as 「deep learning」—could outperform older models at a variety of tasks. But years of ingrained prejudice against the neural networks approach led many AI researchers to overlook this 「fringe」 group that claimed outstanding results. The turning point came in 2012, when a neural network built by Hinton’s team demolished the competition in an international computer vision contest.

In the twelve years since Geoffrey Hinton and his colleagues』 landmark paper on deep learning, I haven’t seen anything that represents a similar sea change in machine intelligence.

In terms of academic accomplishments, Geoff has more than 250,000 citations, with more than half in the last five years. He has an astoundingly high H-index of 142. He was the co-inventor of the seminal work on Boltzmann Machines and backpropagation using gradient descent (published in 1983 with Terry Sejnowski, and the Nature paper with David Rumelhart in 1986). This work introduced the idea of hidden layers in neural networks, along with a mathematically elegant and computational tractable way to train their affiliated parameters. Hidden layers freed the software from 「human control」 (such as expert systems) and back propagation allowed non-linear combination to essentially discover prominent features (in a more goal-directed way than humans) in the process. However, it turned out that these ideas were before their time, as there were not enough data or computing power to enable these theoretical approaches to solve real-world problems or beat other approaches in competitions. The early-1980’s were dominated by expert systems, which became discredited in by late-1980’s when they were proven to be brittle and unscalable. What displaced expert systems was not Geoff’s proposals (which were too early), but simplified versions of neural networks which were compromised to work with less data and computation. My Ph.D. thesis (using hidden Markov models) was among them, and these simplified approaches were able to make some contributions with some applications, but like expert systems, they were not able to scale to the hardest problems (such as playing Go, human-level speech or vision).

From 1985 to 2015, the amount of data and computation increased tremendously. For example, my 1988 Ph.D. thesis used the largest speech database at the time, which was only 100 MB. Today, the best speech recognition systems are trained on 100 TB of data – a million-fold increase. And with that much increase in data size, Geoff’s approach (later re-branded deep learning) finally shined, as it could increase the number of layers from one to thousands, and deep learning systems continued to improve as the data size and the complexity of the model increased.

This is easy to see in hind sight. But at the time, the reality was quite cruel. The 1990s were the darkest hours for neural network researchers like Geoff. Geoff’s earlier theoretical work created intellectual spark, but the lack of data and computation prevented these deep learning systems from demonstrating superior performance. Funding dried up, and many neural network researchers moved away to other areas. But Geoff was among the few researchers (other key researchers include Yann LeCun and Yoshua Bengio) who persisted on pushing forward the neural network approach, despite a frosty and fickle environment for funding. He moved to Canada, adjusted his group to a smaller funding environment, and continued to push the frontier.

His contribution to the neural network approach continued in the next 30 years, including the mixture of experts model, the Helmholtz machine, the neural-animator system, probabilistic inference, stochastic neighbor embedding and neighborhood component analysis, t-SNE, and many other innovative ideas.

Very few technologies have disrupted multiple areas of research completely, but deep learning did. From 2010 to 2016, essentially the entire field of perception – speech recognition, image recognition, computer vision, switched to deep learning, as Geoff and his colleagues proved deep learning to be the best and most generalizable approach for perception. In the entire fiend of Artificial Intelligence, human perception (to hear, see, and understand) was considered one of the aspects that set the humans apart and a grand challenge for AI (incidentally, playing Go was another, which was conquered by Deepmind’s AlphaGo, which also used deep learning during the matches which shocked the world, and was another catalyst for the 「AI revolution」).

Here is how Geoff’s team disrupted computer vision research, In 2012, his team built a neural-network based system that cut the error rate by 40% on ImageNet’s 1000-object recognition task and competition. The computer vision community was accustomed to incremental improvements annually. Geoff’s team’s results shocked that community, as a relative 「outsider」 using an 「unconventional approach」 won by such a large margin. If backpropagation was Geoff’s most important theoretical contribution, his team’s work on the ImageNet competition was Geoff’s most recognized contribution. That ImageNet result started the first ripple that ultimately became the deep learning tidal wave.

The deep learning tidal wave (the most central part of the 「AI revolution」) is now changing every industry. As an example, as a venture capitalist in China, I was a part of a 「tiny」 side effect: Geoff’s 2012 paper and ImageNet result inspired four computer vision companies in China, and today they are collectively worth about $12 billion. Keep in mind, this was just one small field in one country based on one of Geoff’s result. Geoff’s result also led to deep learning disrupting speech recognition (the area of my Ph.D. work), resulting in super-human accuracy in 2015 by Baidu’s Andrew Ng (recruited to Baidu after Geoff joined Google part-time). And much more broadly, every technology monolith (Google, Microsoft, IBM, Facebook, Amazon, Baidu, Tencent, Alibaba) built its platform for deep learning, and re-branding themselves as 「AI companies」. And in venture capital, we saw the emergence of many unicorns (in China alone there are over twenty) powered by deep learning. Also, deep learning required much compute power that traditional CPUs could not handle, which led to the use of GPUs, the rise of Nvidia and the re-emergence of semiconductors to handle deep learning work-load. Most importantly, our lives have changed profoundly – from search engines to social networks to e-commerce, from autonomous stores to autonomous vehicles, from finance to healthcare, almost every imaginable domain is either being re-invented or disrupted by the power of machine learning. In any domain with sufficient data, deep learning has led to large improvements in user satisfaction, user retention, revenue, and profit. The central idea behind deep learning (and originally from backpropagation) that an objective function could be used to maximize business metrics has had profound impact on all businesses, and helped the companies that have data and embraced machine learning to become incredibly profitable.

In aggregate, Artificial Intelligence (AI) is arguably the most exciting technology ripe for applications today. PWC and McKinsey predicted that AI would add $12-16 trillion to the global GDP by 2030. The most important advance and the primary reason that AI is believed to have matured is Geoff’s work on deep learning. While every Turing Award recipient has made seminal impact to Computer Science, few have changed the world as Geoff is doing.

Beyond the role of an innovator, Geoff was also a true thought leader. While he is soft-spoken, he is a spiritual leader who really shapes and reshapes the overall research community. He was a tireless in teaching not only his students but the world. For example, he started the Connectionist School in 1986. He personally connected to and persuaded people in computer vision and speech processing to understand and embrace deep learning. Yet, after all that work succeeded, and the world was won over by deep learning in 2018, he set a new direction. Because industry has rallied around deep learning, and large companies were gathering more data and leading the 「industrialization」 of deep learning, he made an exhortation to move on and focus on inventing 「the next deep learning」, or fundamentally new approach to AI problems that could move closer to true human intelligence.

His thought leadership was grounded in his life-long vision and quest to better understand human cognition. While deep learning is a breakthrough that is changing the world, he sees it as only a stepping stone towards the realization of his long-term vision. To set another example, his new work on capsule leaning is again causing researchers to rethink their role and responsibilities in Geoff’s vision.

I believe Geoff is the single most important figure in the field of Artificial Intelligence today. His contributions to academia and industry are equally outstanding. He is not only a brilliant and inspirational scholar, but also an inquisitive, generous, persistent, decent, and principled gentleman, who is a role model for any aspiring young computer scientist. His work went well beyond neural networks and machine learning, and has greatly impacted computer vision, speech and signal processing, statistics, cognitive science, and neural science. I cannot think of anyone else more deserving of the Turing Award, and urge the committee to select Geoff as the recipient this year.

Sincerely,

Kai-Fu Lee, Ph.D.

Chairman & CEO, Sinovation Ventures

Fellow, IEEE

Honorary Ph.D., Carnegie Mellon University

Honorary Ph.D., City University of Hong Kong

相關焦點

  • Hinton等6位圖靈獎得主、百餘位頂級學者邀你共話AI下一個十年
    機器之心報導機器之心編輯部Geoffrey Hinton 等 6 位圖靈獎得主親臨,百餘位頂級學者邀請你加入群聊「2020 北京智源大會」,深入系統探討「人工智慧的下一個十年」。自 2009 年深度學習崛起以來,第三波人工智慧浪潮席捲全球,推動了新一波技術革命。
  • 2018圖靈獎公布!Hinton、Bengio、LeCun深度學習三巨頭共享
    這是圖靈獎十年來第三次頒給機器學習領域的傑出貢獻者了:2011 年圖靈獎得主為 Judea Pearl,他開發的概率與因果推理微積分為人工智慧發展做出了重大貢獻。Leslie Gabriel Valiant 獲得了 2010 年圖靈獎,他為計算理論的發展作出了變革性貢獻,包括 PAC 學習理論、並行與分布計算理論等。
  • 比肩牛頓達爾文 AI之父圖靈將登上英鎊新鈔
    1946年,圖靈獲得「不列顛帝國勳章」,這是英國皇室授予為國家和人民做出巨大貢獻者的最高榮譽勳章。1950年,圖靈提出了著名的「圖靈測試」。同年,他提出關於機器思維的問題,引起了廣泛的注意和深遠的影響。1950年10月,圖靈發表論文《機器能思考嗎?》。這一划時代的作品,使圖靈贏得了「人工智慧之父」的桂冠。1952年,圖靈寫了一個西洋棋程序。
  • 什麼樣的AI大會,光圖靈獎得主就邀請了6位!千萬別看門票價格
    你看看嘉賓都有誰:全球大牛參與所有嘉賓中,光圖靈獎得主就有6位:Geoffrey Hinton,深度學習三巨頭之一,和另外兩位Yoshua Bengio、Yann LeCun一起榮獲2018年圖靈獎。這也是與中國淵源頗深的Hinton,第一次參與中國AI組織主辦的AI大會及活動。
  • 圖靈獎得主Bengio的AI公司,都不得不「兩折出售」了
    從12億美元跌落至2.3億美元,期間發生了什麼?目前,這家提供無償服務的英國公司,員工人數已擴大到500人。不僅如此,Element AI在宣傳方面進行了大量投資。它僅僅在成立9個月後,就籌集了1.02億美元的風險投資,不到4年時間裡,這家公司已經融資約2.6億美元。與拿到融資後踏實做業務相反,這家公司背後卻在偷偷地推銷自己。
  • 揭秘三位圖靈獎得主Hinton、LeCun、Bengio的傳奇人生
    這是圖靈獎自1966年設立以來,第三次將年度圖靈獎同時辦法給三位獲獎者。根據ACM官網信息,此次圖靈獎是為了表彰三位大師給人工智慧帶來的重大突破,這些突破使深度神經網絡成為計算的關鍵組成部分。「雖然人工神經網絡作為一種幫助計算機識別模式和模擬人類智能的工具在20世紀80年代被引入,但直到21世紀初,只有楊LeCun、Hinton和Bengio等一小群人仍然堅持使用這種方法。儘管他們的努力也曾遭到懷疑,但他們的想法最終點燃了人工智慧社區對神經網絡的興趣,帶來了一些最新的重大技術進步。他們的方法現在是該領域的主導範式。」這是ACM授予他們圖靈獎的重要原因。
  • 北大30人小班豪配兩位圖靈獎導師!清華有「姚班」,北大看「圖靈」
    ,竟然配備了兩位獲得過圖靈獎的導師! 圖靈獎獲得者,也是北大圖靈班的創建者John Hopcroft教授在頒獎儀式上表示: 「獲獎學生代表了中國最優秀的學生,獲得 John Hopcroft
  • 2020湖南事業單位公共基礎知識:圖靈獎
    圖靈獎是美國計算機協會於1966年設立的,又叫"A.M.圖靈獎",專門獎勵那些對計算機事業作出重要貢獻的個人。其名稱取自計算機科學的先驅英國科學家艾倫·圖靈,這個獎設立目的之一是紀念這位科學家。下面我們就將圖靈獎的相關考點內容和各位考生進行分享。
  • 拿下1.12 億美元 A 輪融資,Pony.ai 的無人駕駛車隊將落地廣州
    去年 9 月到 11 月,是自動駕駛創業公司 Pony.ai (中文名「小馬智行」)的密集發聲期,無論是無人駕駛汽車路測視頻曝光,還是圖靈獎得主姚期智出任其首席顧問,抑或是去年 10 月宣布在廣州南沙設立無人駕駛研發中心和總部基地
  • 李開復與眾不同的人生路
    那些只看到眼前微末小利的人,不會理解大人物的追求。說起李開復這位企業家,大家都多少聽過他的名字,就在兩年前,李開復入選了中國改革開放海歸40年40人」榜單,可見此人不凡。但很多人對李開復是只知其名,卻不清楚李開復到底做過什麼。那麼,李開復的成就到底從何而來呢?
  • 李開復、知乎、美團等如何在DeeCamp上挑選AI項目
    學術大咖是圖靈獎獲得者John Hopcroft、深度學習大牛吳恩達領銜的來自康奈爾大學、卡內基梅隆大學、加州伯克利大學、密西根州立大學、雪梨科技大學、北京大學等頂尖高校的學者。產業大牛陣營則是創新工場CEO李開復領銜的來自創新工場、美團、知乎、曠視、美圖、地平線機器人、景馳、獵戶星空、科大訊飛、Google等頭部公司的產業專家。
  • 張亞勤掛帥清華大學智能產業研究院 多名圖靈獎得主任學術顧問
    值得一提的是,AIR學術顧問委員會陣容豪華,包括圖靈獎獲得者、中國科學院院士、美國藝術與科學院院士姚期智教授;圖靈獎獲得者、美國工程院、藝術與科學院院士David Patterson教授,圖靈獎獲得者、美國工程院、藝術與科學院院士John Hopcroft教授等多位世界級學者。
  • 響徹世界學術的三大獎項:諾貝爾獎、菲爾茲獎、圖靈獎
    響徹世界學術的三大獎項:諾貝爾獎、菲爾茲獎、圖靈獎。諾貝爾文學獎包括物理、化學、生理學或醫學、文學、和平、經濟學六個領域的獎項;菲爾茲獎是數學獎項,被譽為「數學界的諾貝爾獎」;圖靈獎則是計算機獎項,被譽為「計算機界的諾貝爾獎」。
  • 南安大學Sebastian Stein博士獲得140萬英鎊圖靈AI加速研究獎
    南安大學Sebastian Stein博士獲得140萬英鎊圖靈AI加速研究獎,用於研究:以市民為中心的人工智慧系統「這類AI系統可以利用大量數據源來做出快速,高效,以數據為依據的決策,以應對重要的社會挑戰,並可能使數百萬人受益。但是,如此大規模地構建AI系統提出了一系列重要挑戰。」 「首先,這些系統可能需要從人們那裡獲取相關信息,例如與健康相關的數據,這會引發隱私問題,並且可能還會鼓勵人們曲解他們對個人利益的要求。此外,必須信任系統,使其以符合社會道德價值觀的方式運行。
  • 一文了解72名圖靈獎獲得者
    從「圖靈機」到「圖靈測試」,從破譯德軍的 Enigma 到自殺之謎,圖靈一生都是傳奇,關於圖靈的故事我們不在這裡贅述。今天我們更想聊聊,計算機領域最高獎項 —— 圖靈獎(Turing Award)。為紀念艾倫·麥席森·圖靈在計算機領域的卓越貢獻,美國計算機協會於1966年設立圖靈獎,此獎項被譽為計算機科學界的諾貝爾獎。
  • 「反向傳播非你原創」,Jürgen發文直指Hinton不應獲2019本田獎
    機器之心報導參與:魔王、蛋醬、杜偉LSTM 之父 Jürgen Schmidhuber 再次掀起爭論,這回他指向了深度學習之父、圖靈獎得主 Geoffrey Hinton。不過,這次他站出來質疑的是 Hinton 的最新獎項——本田獎。創立於 1980 年的本田獎旨在表彰「為引領生態技術領域的下一代新知識而做出貢獻的個人或團體」。
  • 李開復對話Yoshua Bengio:構建AI與人類社會的良性循環
    7月23日,創新工場董事長兼CEO李開復博士,受邀參加SGInnovate主辦的「深度科技(Deep Tech)造福人類」活動,與Element AI聯合創始人Yoshua Bengio教授對話,討論人工智慧的未來發展。 Yoshua Bengio教授是深度學習三大發明人之一、2019年ACM圖靈獎得主。
  • 10位AI大牛暢想2020:李開復看好醫療教育 LeCun強調自監督學習
    吳恩達DeepLearning.ai旗下的THE BATCH刊物,分享了包括Yann LeCun、李開復、周志華、還有他們的老闆吳恩達在內的10位AI大佬的新年寄語,以及對AI在2020年能有什麼突破的「新年願望」。一起來看看吧~吳恩達:保持學習和好奇心
  • 李開復:AI進入落地期,單憑科學家顛覆行業的機會幾乎不存在,這個領域除外
    雖然中國沒有圖靈獎級別的大師,但是有大批優秀的年輕AI工程師。今天AI的壁壘在下降,但產業的壁壘還是很高的,更需要學AI的人去了解商業,了解怎麼賺錢。早期,商湯曠視借一個人臉識別技術,就顛覆了很多安防公司。但目前在很多不同的行業裡,這些行業中的管理者和工程師學會運用AI的難度,要遠遠低於懂AI的人學會他們的行業然後顛覆他們的機率。
  • 圖靈獎得主David Patterson為你解惑
    世界人工智慧大會開發者日(以下簡稱為 WAIC 開發者日)雲端峰會作為大會主題論壇及特色活動,是 WAIC 期間唯一面向 AI 開發者的專業活動,將成為人工智慧領域年度最高規格、最專業、最具影響力的開發者盛會之一。本屆開發者日包含 1 場主論壇、多場分論壇、高峰對話、黑客松、Demoday、公開課等活動,為業界呈現最豐盛的人工智慧技術分享盛宴。