周志華:「數據、算法、算力」,人工智慧三要素在未來還要加上...

2020-12-20 騰訊網

來源:AI科技評論

本文約8300字,建議閱讀15分鐘。

本文介紹了清周志華教授在全球人工智慧和機器人峰會的演講內容。

2020 年 8 月 7 日,全球人工智慧和機器人峰會(CCF-GAIR 2020)正式開幕。CCF-GAIR 2020 峰會由中國計算機學會(CCF)主辦,香港中文大學(深圳)、雷鋒網聯合承辦,鵬城實驗室、深圳市人工智慧與機器人研究院協辦。從 2016 年的學產結合,2017 年的產業落地,2018 年的垂直細分,2019 年的人工智慧 40 周年,峰會一直致力於打造國內人工智慧和機器人領域規模最大、規格最高、跨界最廣的學術、工業和投資平臺。

在第一天的人工智慧前沿專場上,南京大學計算機系主任、人工智慧學院院長、CCF會士、ACM、AAAI、IEEE、IAPR Fellow周志華教授以「反繹學習」為題發表了大會報告。

周志華表示,當今的人工智慧熱潮是由於機器學習,特別是其中的深度學習技術取得巨大進展,在大數據、大算力的支持下發揮出巨大的威力。機器學習算法模型用了更多數據和算力後,獲得的性能增長可能遠超算法模型設計者的預想。但是,把模型「做大」要付出高昂的成本代價。

因此,他認為,在人工智慧研究上,學術界和工業界適宜有不同的分工:把「對性能的追求」交給工業界,學術界回到本源,做「探路」和「思考未來」的事情。

如何將「機器學習「與「邏輯推理」相結合,是人工智慧領域的「聖杯問題」,以往的努力有的是「重推理」,有的是「重學習」,另一側未能充分發揮力量。周志華教授提出了「反繹學習」,希望在一個框架下讓機器學習和邏輯推理二者能更均衡更充分地發揮效用

他說到,「現在都知道人工智慧技術發揮作用需要數據、算法和算力這三要素,未來需要把知識這個要素也考慮進來知識凝聚了人的智慧。過去十幾年,我們都是從數據驅動的角度來研究人工智慧,現在是時候把數據驅動和知識驅動結合起來。」

以下為周志華教授的現場演講內容,本文進行了不改變原意的整理和編輯:

周志華:各位專家、朋友,大家上午好。感謝CCF和杜子德秘書長邀請,作為CCF的老會員,很高興來參加這個活動。今天我跟大家分享的主題是《Abductive Learning(反繹學習)》。

人工智慧技術的發展需要三個要素:數據、算法和算力。前幾年,「大數據時代」是一個熱詞。大家都知道,大數據本身並不必然意味著大價值。數據是資源,要得到資源的價值,就必須進行有效的數據分析。在今天,有效的數據分析主要依靠機器學習算法。

今天的人工智慧熱潮主要就是由於機器學習,特別是其中的深度學習技術取得巨大進展,而且是在大數據、大算力的支持下發揮出巨大的威力。

談到深度學習,就要談到深度神經網絡。深度神經網絡是非常龐大的系統,要訓練出來需要很多數據、很強算力的支撐。人工智慧算法模型對於算力的巨大需求,也推動了今天晶片業的發展。例如現在訓練深度神經網絡用到的GPU,更早是用於動畫、渲染。如果沒有深度神經網絡這麼大的需求,GPU也很難有今天這麼大的市場,更不用說現在還有TPU等新的設計。

所以我們可以看到,人工智慧算法模型的發展,與算力、晶片發展之間,有相互促進的作用。這幾方面的要素是互相促進、互相支撐。

1、把「對性能的追求」交給工業界

另一方面,把強大的算力、超大的數據往上堆,可能把現有機器學習算法模型的能力發揮到極致,所能達到的性能水平甚至可能令算法研究者自己都感到驚訝。這種「大力出奇蹟」的「暴力美學」,已經產生出了非常強大的模型。

比方說,最近大家談到的當前最大人工智慧模型——GPT3。它用到的訓練數據是45TB,模型參數1750億參數,模型大小700G。基於這個模型,很多困難的問題像自然語言處理裡的許多問題都取得大幅度進展。

我們來看看這篇關於GPT3的論文。和我們這個學科一般的論文不太一樣,作者非常多,31位作者。文章後面有分工介紹,有的作者是專門寫代碼、有的是專門調參數、有的專門做數據採樣、有的專門寫論文…… 流水線分工作業,簡直是工業化大生產的模式。

再看看論文中的算法模型,可以看到,都是已有的技術,裡面每一部分都不是新的。但是,基於強大的工程化組織,讓它發揮了巨大作用。核心要點就是做大、做大、再做大。

做大就必然付出代價。讀這篇文章可以注意到裡面有一句話,說作者發現這個工作中有一個Bug,但是由於成本太高,就沒有重新訓練。據說訓練一次的成本大約1300萬美元,所以即便發現有Bug,也就忍著算了。

這樣的模型能夠解決很多問題,帶來很大的性能提升。但是如此高昂的成本,也給我們從事人工智慧研究的人帶來了新的挑戰,特別值得讓學術界從事人工智慧研究的學者思考一個問題:昂貴的成本必須換來效益回報,模型性能提升,在工業界能提升經濟效益,有時哪怕性能提升一兩個點,帶來的回報可能足以彌補投入。但學術界如果花這麼大成本,怎麼能帶來足夠的回報?

學術界和工業界在人工智慧研究上,適宜有不同的分工:把對「性能」的追求交給工業界,學術界不必過多地關注「性能」,因為模型性能提高那麼幾個點,對於學術界並沒有多大的意義,僅僅是發表幾篇論文的話,對不起這麼巨大的投入。當然,我們培養了人才,人才是無價的,但是不用花這麼多成本也可以培養優秀人才。

把對性能的追求交給工業界,那麼學術界做什麼呢?回到本源,做學術界該做的工作:「探路」、「思考未來」。只要是全新的探索,成功了可以指出新的道路,即便不成功,也可以指出此路不通,都是有巨大意義的。一條道路探明之後,進一步的改進和提升就交給工業界。

2、「推理+學習」的難題

開頭我們說到,人工智慧技術發揮作用要有算法、算力和數據三大要素,未來是不是還這樣呢?要不要往裡面加東西?這是我們現在要思考的。

疫情期間我們跟合作者,包括公司企業和醫學專家,一起做了一點事,做的人工智慧疫情分析推演模型為相關部門疫情防控決策做了一點微小的輔助。這個工作中大量使用了機器學習技術,但是僅有機器學習夠不夠?不夠!我們使用了很多高水平醫學專家、病毒專家的知識。我們深深體會到,如果機器學習技術能夠跟專家知識很好地結合起來,或許會發揮超出我們預想的作用。

事實上,在人工智慧領域有一個長期存在的「聖杯」問題,就是我們什麼時候能夠把機器學習和邏輯推理很好地融合起來?如果能夠得到一個完整的框架,能夠讓這二者同時在其中很好的發揮作用,那這是我們非常希望達到的一個目標。

為什麼要考慮這件事?我們首先可以看一看。邏輯推理它非常容易來利用我們的知識, 而機器學習呢比較容易來利用數據、利用證據、事實。但是如果從人類決策來看,很多決策的時候同時要使用知識以及證據。那麼這兩者能不能很好地弄到一起去呢?

非常遺憾,雖然邏輯推理和機器學習在人工智慧歷史上有很多研究,但是這兩者基本上是獨立發展起來的。比方說在1956年代到1990年代期間,邏輯推理和知識工程是人工智慧的主流技術,但這時候機器學習的研究還很冷清。而到了90年代中期之後,機器學習研究變得非常的熱門,但這時候邏輯推理和知識工程的研究又變得冷清起來,甚至今天從事這方面研究的人在全世界都已經很少了。

如果想把兩者結合起來,最主要的障礙是什麼呢?最主要的是,這兩者幾乎是基於完全不同的表示方式。

邏輯推理我們一般來說可以認為它是基於一階邏輯規則的表示。這裡我們看一個例子,這裡面有三個子句,第一個字句:對於任意X和Y,如果X是Y的父母,那麼X比Y年長;第二個字句:對於任何兩個人,X是Y的媽媽,那麼X就是Y的父母;第三:LuLu是FiFi的媽媽。現在如果我們問:誰更年長一些?那麼如果從這樣的一個邏輯系統,我們馬上就可以知道,第三句話,我們知道Lulu是Fifi的媽媽,那麼從第2句話我們就知道她是Fifi的父母。又從第1句話我們知道她肯定比Fifi年長。邏輯推理就是基於這樣的一些邏輯規則描述出來的知識,來幫助我們做這樣的推理判斷。

機器學習呢,它走的是另外一個路線。我們會收集很多的數據,比方說把這個數據組織成這麼一個表格形式,每一行就是一個對象或者事件,每一列是刻畫它的一個屬性或特徵,這就是所謂的「屬性-值「表示形式。如果從邏輯的角度來看,這種表示是非常基礎的命題邏輯的表示方式,可以把屬性值表對應成邏輯真值表。

而命題邏輯和硬體邏輯中間是有非常大的差別,很重要的就是有對於「任意」以及「存在」這樣的量詞會發生作用。一階邏輯表示由於涉及量詞,比方說如果要把「任意」這個量詞拆開把每個可能的X當做一個樣本,那就會變成無限大的樣本集。如果把一階邏輯中的謂詞比方說「parent」當作一個屬性,那麼你會發現,每個邏輯子句刻畫的並不是某個樣本,而是在刻畫樣本之間的某種關係。

於是,當我們把謂詞直接當做屬性試圖展開成普通數據集的時候,會發現數據集裡甚至沒有真正的屬性-值的描述。

雖然很困難,但大家都知道,如果能把兩者結合起來,可能會有更大的威力,因此歷史上已經有很多研究者在做努力。我們可以歸結是大致兩個方向的努力。一個方向主要是做邏輯推理方面的學者,嘗試引入一些機器學習裡面的基礎的技術或者概念。這裡面形成了一大類技術,有很多的做法。

我們舉一個最簡單的例子,比方說剛剛給大家看到的幾個子句,每個邏輯子句是確定的:要麼成立,要麼不成立。我們現在可以給每個邏輯子句加上一個權重,一定程度上我們可以認為它反映這個子句成立的概率。

比如說:如果一個人是大學三年級,另一個人是大學一年級,那麼第一個人很可能比第二個人年長,這個可能性是80%。通過加一個0.8,我們就使得這個事實變成一個概率的成立。這樣得到的帶有概率權重的子句,就可以進行一定程度的概率推理。

另一個方向是從機器學習的角度,嘗試把一些邏輯推理方面的東西引進來。比方說我們看到有這麼一條子句,如果一個人他抽菸,那麼他很有可能得癌症。有了這麼一個知識,我們就可以在做貝葉斯網初始化的時候,把任何一個X,如果他smoke,我們就把它和cancer之間的這條邊連起來,也就是說我們用這個初步的規則幫助我們做這個網絡的初始化。初始化之後,原來貝葉斯網該怎麼學就怎麼學。

所以我們可以看上面這兩大類做法。第一類,我們可以看到它是把機器學習往邏輯推理中引,但是後面主體還是通過推理來解決問題,所以我們稱它是推理重而學習輕。第二種做法基本上是反過來,它把邏輯推理的技術往機器學習裡面引,但是後期主要的解決問題是靠機器學習,所以我們稱它是學習重而推理輕。總是一頭重一頭輕,這就意味著有一頭的技術沒有充分發揮威力。

所以我們現在就想,能不能有一個新的機制幫助我們把這兩大類技術的威力都充分地發揮起來呢?我們最近提出了一個新的方案,叫做Abductive Learning。

3、什麼是「反繹」?

要去理解Abductive learning之前,我們先來理解這個abductive是什麼含義。

在人類對知識的處理上,或者說對現實問題的抽象上,我們通常有兩種做法。

一種是演繹,我們從一個一般性的原理出發,然後把一些特定的結果能夠得出來,而且這個得出的過程是有保障的。比方說我們做定理證明,首先拿到一些數學公理,然後基於這些數學公理,把與它們一致的所有別的定理都證明出來。這就是一個「從一般到特殊」的過程,這是演繹。

另一種做法是歸納,就是說我們先看到一些特定的事實,然後我們從特定的事實中總結出一般的規律。其實機器學習做的就是這麼一件事。我們看到很多很多的數據,然後希望學習出反映一般規律的模型,這就是「從特殊到一般」。

定理證明可以說是演繹的典型代表,而機器學習是歸納的典型代表。我們今天講到的這個反繹,不太一樣。Abductive這個詞在邏輯裡有時候翻譯成誘導。但是在我們這個框架下,再把它翻譯成誘導就不是特別合適,所以我們另譯為反繹。反繹學習就大致是把演繹反向嵌入到機器學習歸納過程中去。

反繹是什麼意思呢?它是首先從一個不完備的觀察出發,然後希望得到一個關於某一個我們特別關心的集合的最可能的解釋。直接從這句話來理解可能有困難。那麼下面我就先給大家看一個例子,是關於怎麼去破譯瑪雅曆法這麼一個故事。

大家知道中美洲有一個古老的瑪雅文明。他們建立起了非常複雜、精緻的曆法系統,具體是有三套曆法。

左邊這三個石柱子上畫出了很多的圖案,每個圖案它會表達一個含義。看中間紅色方框中間的5個圖像,考古學家知道是對應了瑪雅的一個曆法叫做長曆。這是一組看起來像是IP位址的數字,它實際是不嚴格的20進位,描述了一個日期,就是瑪雅文明認為從創世開始一共經過了多少天。這裡面第1個和第4個是什麼含義還不知道,所以打了問號,第2個圖像對應於18,第3個對應於5,最後一個對應於0。

接下來,藍色框出來這兩位,對應於瑪雅的神歷。左邊這個圖像是什麼含義還不知道,打了問號;右邊這個符號已經知道代表一個東西叫做Ahau。這兩位結合起來也代表了一天。其實這兩位一個是指月,一個是指日,有點像我們中國天幹、地支的搭配,類似於在說「庚月子日」。但僅靠它肯定是不精確的,即便知道「庚月子日」也不知道具體是哪一天,因為歷史上有很多的庚月子日,還需要要和別的信息結合起來。

最後這兩位是13 Mac,對應瑪雅的太陽曆,是說這一年第13個月第14天。但是,這是哪一年?僅憑它還不知道。

但是如果這三個曆法裡的問號都清楚了,那麼這一天的定位就非常精確了。現在需要把這三個問號破譯出來。我們有一個重要的知識:這三個曆法系統,由於它們指的是同一天,那麼揭示出來的這三個問號的值一定會使這三個計數達到一致。

那我們看看考古學家會怎麼做這個事。拿到這個圖像之後,他們首先根據以往破譯圖像的經驗去「猜「 這些數字是什麼。但這很難,考古學家現在只知道這兩個紅色的應該是同一個數,藍色的應該是另外一個數,但這個紅色的既有可能是1,也有可能是8,也有可能是9。因為瑪雅人刻石柱是手工而不是機器做的,每次都有變化。比方說大家看到最上面這個紅色的圖像,它好像和這個1最左邊這個很像,和8的第二個也很像,跟9最右邊的這個也比較像。

然後接下來考古學家做什麼呢?他們把可能的情況全部展開。比方說如果我們認為紅色的這個是1,那我們現在這個藍色的就有幾種可能,2 3 4 5 6 7這些可能都有,例如右邊的最下面一行是1.18.5.7.0,這是從觀察到的圖像得出的猜測。也就是說從觀測到的石柱,他們得出了這麼幾個可能的假設。接下來的一步,他們就要利用所掌握的知識來做判斷。

所掌握的知識是告訴我們現在這三個曆法系統,它對應的日期應該是同一天。這裡恰好找到紅色是1、藍色是6的這一行,對應的破譯結果是長曆的創世以來第275520天,恰好是神歷中一年的倒數第三天,也恰好是太陽曆中第13個月的第14天,一切都一致了!於是,這就得到了結果。

這就是反繹的過程。

我們回顧一下,首先它來自一個不完備的觀察,有的圖像是什麼我們知道,有的圖像是什麼我們不知道。然後基於這個觀察,我們得到一個假設。有了這個假設之後,根據我們的知識來找一個最可能的解釋。而這個解釋就是現在紅色,藍色這個我們當前所關心的集合。這就是反繹的含義。

我們現在回頭看一看現在的機器學習。首先我們要有很多instance,這是我們的樣本。我們要有很多label,這是關於訓練樣本的已經知道的結果。我們把它合起來做監督學習,訓練出一個分類器。

反繹學習的設置不太一樣。我們有一些樣本,但只有樣本的表現,不知道結果。這就類似於剛才在瑪雅這個故事裡面我們看到很多圖像,但這個圖像對應的含義是什麼還不知道。反繹學習中假設有一個知識庫,這就類似於剛才考古學家所擁有的關於曆法的知識。同時我們還有一個初始分類器,這就好比說考古學家一開始看到這個圖像,他會猜這個圖像到底是什麼?那麼他憑什麼猜呢?是他腦子裡面有這麼一個分類器。

在這個學習中,我們先把所有的數據提供給這個初始分類器,這個初始分類器就會猜出一個結果,比方說紅色的可能是1等等。然後得到這個結果之後,我們就會把它轉化成一個知識推理系統它能夠接受的符號表示。比如說從這些label裡面,得到了A,非B,非C等等。

那麼接下來這一步,我們就要根據知識庫裡面的知識來發現有沒有什麼東西是不一致的?剛才在瑪雅曆法的故事裡,第一輪就一致了,但在一般的任務中未必那麼早就能發現一致的結果。

如果有不一致,我們能不能找到某一個東西,一旦修改之後它就能變成一致?這就是我們要去找最小的不一致。假設我們現在找到,只要把這個非C改成C,那麼你得到的事實就和知識都一致了。我們就把它改過來,這就是紅色的這個部分。那這就是一個反繹的結果。

而反繹出來的這個C,我們現在會回到原來的label中,把這個label把它改掉,接下來我們就用修改過的label和原來的數據一起來訓練一個新分類器。這個過程可以不斷地迭代下去。這個分類器可以代替掉老的分類器。這個過程一直到分類器不發生變化,或者我們得到的事實和知識庫完全一致,這時候就停止了。

可以看到,左邊這一半就是在做機器學習,而右邊這一半是在做邏輯推理。而且,它不是說一頭重一頭輕,而是這兩者互相依賴,一直這樣循環處理下去,這麼一個過程。反繹學習的形式化描述,我們今天就不展開了。

4、反繹學習的討論與案例

有幾點內容我們來討論一下。首先我們看這個數據部分。在反繹學習中,這個數據只需要有instance,不需要有label。那麼我們靠什麼來做監督學習呢?主要就是靠初始分類器以及知識庫中的知識。

可以認為這個監督信息是來自於數據之外的地方,所以從這個角度上說,反繹學習可以看成是一個很廣義的弱監督學習。但另一方面,如果初始數據中確實是有label的,那這個學習過程,label信息完全可以用上去。比方說,我們把真的label和反繹出來的label一起用來對分類器做更新等等。

第二個方面,初始的分類器從哪來?這可以有很多的辦法,比方說類似於深度學習的預訓練或者遷移學習,做一個任務時可以用另外一個任務的結果做初步模型。甚至把數據聚類的結果作為粗糙的起點,有時也可以。

這裡的關鍵是,初始分類器未必要準確可靠,只不過用它把過程啟動起來。當初始模型非常粗糙時,如果知識庫的知識靠譜,那就能通過知識庫的信息來修正分類器,能進行下去。如果知識不太精準,而初始模型比較好,也能往下學。如果兩者都好,當然可以做得更好。也就是說,至少有一個好就能往下做。當然,如果數據沒有label、初始分類器不靠譜、知識也不靠譜,那這樣的任務本身就沒法做。

那接下來,這個知識庫從哪來?這個目前還是需要人類專家來提供。最近一些關於知識圖譜的工作能提供很多幫助。另外,有可能初始的知識並不是完美的,那麼這個過程中,也可以通過對數據的學習來對知識做精化,所以反繹學習本身也可以認為是一個對知識精化的過程。

接下來這個過程中涉及到怎麼樣具體地去做學習,去做推理等等,這些具體算法機制的設計。反繹學習本身是一個框架,對裡面這些機制細節做不同的設計,可以產生出不同特點的反繹學習模型和算法。

下面就介紹一個簡單的例子,面對的這個任務是破譯長代碼。

例如上面三行代碼,這個代碼是以圖像形式呈現,比方說第一行是正例,第二行是反例,能不能判斷第三行是正例還是反例?這裡訓練數據的長度和測試數據所用的長度不一樣。而且,數據的語義是什麼事先也不知道。這和破譯密碼有點像。現在考慮簡單的XNOR問題。

第一個是DBA任務,左邊是訓練數據,每個數據都是由5個圖像組成,可以認為它是5位,0+0=0是正例,1+0=0是反例。我們對這5位圖像組成的數據學習之後,測試數據是右邊這樣,長度要比訓練數據長得多,而且有些數據特點也不同,例如訓練數據中的等號總在倒數第二位,而測試數據中的等號可以出現在很不一樣的位置。第二個RBA任務更困難,連圖像的含義都看不出來,圖像都是隨機生成的。

我們用了一個簡單的實現。機器學習部分就是用卷積神經網絡,邏輯推理部分用ALP,都有開原始碼可以直接用。把兩者銜接起來,中間的優化求解過程跟一般機器學習裡不太一樣,我們在神經網絡、統計學習裡的優化一般用到的是數值優化,通常用梯度下降來做,但現在是面對符號優化,不能求導、梯度下降。這裡就用到我們研究團隊近五六年一直在做的零階優化方法,不用求梯度地做優化。把這幾個技術結合起來,就是這個簡單的實現。

我們看看這個實驗結果,圖上藍色和紫色分別對應基於卷積神經網絡、 LSTM處理得到的結果。下面有一條橫線對應的是隨機猜測,上面一條橫線對應的是人的水平。第一個圖的DBA任務,我們可以看到,如果長度在12位以內,神經網絡比人做得好。但是長度超過12位,人比這些神經網絡要強。

橙色部分是反繹學習的結果,通過把機器學習跟邏輯推理結合起來之後,在這個任務上比一般人做得好。右邊的RBA任務情況類似,在這個更困難的任務上,隨著串長度的增加,所有方法的性能都在下降,但是基於反繹學習的方法還是比人的水平高一些。

實驗裡這個簡單任務本身並不重要,重要的是顯示出把機器學習和邏輯推理以」相對均衡」的反繹學習方式結合起來,雖然僅用了很簡單的實現,就煥發出令人興奮的能力。今後如果設計出更精緻、巧妙的實現方式,可能會給我們帶來更多驚喜。

大家感興趣的話,上面第一篇文獻是發表在中國科學上的文章,跳出細節來描述整個框架,很容易讀。第二個是描述了剛才的這個具體實現。

最後做一個簡單的小結和展望:我們現在經常在談數據、算法和算力三要素,未來或許應該考慮進知識這個要素,知識凝聚了人類積累的智慧。過去十幾年,我們都是從數據驅動的角度來研究人工智慧,現在可能是時候把數據驅動和知識驅動結合起來了。我們的這個工作只是非常粗淺的初步探索,這裡的研究空間很大,大家如果有興趣,相信會在這方面做出更好的工作。謝謝!

編輯:於騰凱

校對:林亦霖

相關焦點

  • 周志華:「數據、算法、算力」人工智慧三要素,在未來要加上「知識...
    他說到,「現在都知道人工智慧技術發揮作用需要數據、算法和算力這三要素,未來需要把知識這個要素也考慮進來。知識凝聚了人的智慧。過去十幾年,我們都是從數據驅動的角度來研究人工智慧,現在是時候把數據驅動和知識驅動結合起來。」以下為周志華教授的現場演講內容,雷鋒網作了不改變原意的編輯及整理周志華:各位專家、朋友,大家上午好。
  • 院士說丨戴瓊海院士:人工智慧——算法·算力·交互
    我們很多的模型算法也沒有達到它所需要的特點,於是楊強老師發現用聯邦的學習方法、遷移學習的方法,把數據從大數據怎麼摘一個小數據進行工作,這個時候人工智慧發展更需要機器學習模型,我們大腦交給機器的算法是什麼,怎麼樣提高它的算力,這是人工智慧時代要考慮的問題。大家都知道,人工智慧時代發展得非常快,快在哪兒呢?大家可以看到現在是邏輯推理,推理的這個功能能不能交給機器來做?
  • 人工智慧快速發展的三要素
    打開APP 人工智慧快速發展的三要素 人工智慧實驗室 發表於 2020-12-18 09:40:39   算法、算力和數據,是人工智慧快速發展的三個要素。
  • 第三代人工智慧來了!知識、數據、算法、算力缺一不可
    7月9日,來自國內外人工智慧領域的院士及頂尖科學家們在2020世界人工智慧大會上共話下一代人工智慧新範式,聚焦和探索人工智慧最前沿的科技發展趨勢,圍繞人工智慧算法創新、多學科交叉融合等話題,描繪智能視覺、智能醫療、智能晶片等領域的技術發展路徑。AI也要舉一反三2020年註定是不平凡的一年。
  • 加快人工智慧發展的三個要素
    算法、算力和數據,是人工智慧快速發展的三個要素。首先在算法上的突破,才讓人工智慧的商業化發展看到了希望。其次,計算能力的提升,使得複雜的算法得以實現,快速得出訓練成果,降低成本。最後,大數據時代為人工智慧的訓練學習提供了大量的資料。離開其中任何一樣,人工智慧都無法實現大規模商業化應用。
  • ...美國安全和新興技術研究中心:人工智慧三要素及其對國家安全...
    當前世界各國已在這三個領域展開激烈競爭,政策制定者必須設計一個跨領域的人工智慧戰略,解決數據、算法和算力問題,同時評估這三者中的哪一要素——以及哪一種政策槓桿——是最重要的。實現深度學習的三個要素是:數據、算法和算力。我將三者稱為AI三要素。長期以來,計算機科學家們一直在用這種三要素視角來研究機器學習。這為理解機器學習的價值以及它對政策的意義提供了一個框架。
  • 不設限的依圖進化史:從算法到算力
    掀起計算革命的主角,獨角獸企業——人工智慧算力公司依圖科技正是其一。依圖科技首席創新官呂昊說,「依靠我們自研的晶片,(為這個系統)提供了高密度的人工智慧算力。『一網統管』它能夠帶動很多的技術,往真正能夠管用的方向上去走。」
  • 張亞勤:不太完全認同算力比算法更重要的觀點
    「這次數據更多的是給機器看的,而不是給人看的。機器要做決策,機器要進行更多的智能決策。那麼過去1.0、2.0更多是給人所看的,同時我們看到人工智慧的算法有很大的進展。」張亞勤強調,深度學習其實是需要很強很強的算力。而摩爾定律過去兩年左右是要雙倍算力的,其實這已經是在放緩了。但是深度學習對算力要求每年差不多是將近10倍的增長。
  • 中國AI算力佔全球三成!IDC 最新報告解讀,算力仍是AI發展最強推力
    數據顯示,2012~2018年晶片的計算性能提升的30多倍,但從AlexNeT到AlphaGo Zero,算法對算力的需求卻提升了30萬倍,近期熱門的GPT-3的訓練數據量和模型規模也十倍、千倍地增長。
  • 智算中心融合算力、數據和算法,全面支撐AI技術應用和演進
    在智慧時代,數字經濟已經成為國家經濟增長的新動力,其中雲計算、5G、人工智慧、大數據以及邊緣計算是數字經濟結構組成中最底層的核心技術產業。而智算中心則是支撐它們數位化、智能化轉型的最主要算力生產中心,在未來將成為數字經濟時代的新型基礎設施。
  • 電子標準院李冰:算力、數據和算法是新一代人工智慧發展的「三駕...
    2010年至今,信息環境與數據基礎變革,海量圖像、語音等模態數據不斷出現,計算能力不斷提高。算力、數據和算法是新一代人工智慧發展的「三駕馬車」,智能晶片、開源平臺、通用智能和智能認知是未來人工智慧技術四大發展趨勢,而產業將呈現智能服務線下線上無縫結合、智能化應用從單一到複雜、智能應用範圍擴展到傳統行業的趨勢。人工智慧發展的道路中,標準化不可避免。標準支撐引領,可加快人工智慧創新推進、提升產品質量、保護用戶安全並營造開放生態。
  • 南大周志華:第一批人工智慧本科生學的是「硬核課程」
    周志華談人工智慧教育南都:為什麼一流大學紛紛在近幾年開始關注人工智慧的本科教育?周志華:人工智慧是新一輪科技革命和產業變革的重要驅動力量,其核心要素則是專業人才。周志華:人工智慧所要解決的通常是涉及不確定性的複雜任務,從其任務求解過程來看,首先要對複雜現實進行抽象建模,然後對模型進行算法分析和設計。任務和問題的千變萬化,導致人工智慧所涉及的數學工具種類多樣。無論是在抽象建模還是模型算法的分析設計環節,都需要依賴於良好的數學基礎。
  • AI產業化進入深水區,算力瓶頸如何破?
    早期,算法的突破決定著AI的發展水平,AlphaGo戰勝李世石標誌著深度學習算法的突破性進展;接著,AI被越來越多科技企業重視,各家都紛紛布局AI,導致AI人才一下變得十分稀缺;接下來,在AI產業化的深水區,最大制約要素則成為算力。
  • 扛起新基建算力設施大旗的智算中心是什麼?《指南》權威詮釋
    據悉,《指南》對智能計算中心進行明確定義:智能計算中心是基於最新人工智慧理論,採用領先的人工智慧計算架構,提供人工智慧應用所需算力服務、數據服務和算法服務的公共算力新型基礎設施,通過算力的生產、聚合、調度和釋放,高效支撐數據開放共享、智能生態建設、產業創新聚集,有力促進AI產業化、產業AI化及政府治理智能化。
  • 算力經濟正式拉開序幕,增持算力為信仰充值!
    與會代表們認真學習了知名經濟高參黃某帆先生在「2020秋季莫幹山大會」關於《數字經濟時代,算力是國家與國家之間競爭的核心競爭力》的演講文章。據知情人士透露,此文基本上預示了未來5年我國算力經濟的走向。黃先生強調:人類智慧的進步和人類創造的計算工具的速度有關,算力是人類智慧的核心。
  • AI產業化與產業AI化,知否算力有多重要?
    回望2020年,一場新冠疫情成為各行業全面步入在線化時代的「催化劑」,但以人工智慧為代表的新一代科技如何真正地深度應用於不同行業,當前仍舊面臨著「最後一公裡」難題。報告認為,「隨著AI算法突飛猛進的發展,越來越多的模型訓練需要巨量的算力支撐才能快速有效地實施,算力是未來人工智慧應用取得突破的決定性因素。」
  • 中國AI計算力發展評估報告發布,算力是取得突破的決定性因素
    IDC報告指出,中國人工智慧基礎設施市場規模在2020年達到39.3億美元,同比增長26.8%。其中,AI伺服器市場規模佔整體人工智慧基礎設施市場的87%以上。隨著AI算法突飛猛進的發展,越來越多的模型訓練需要巨量的算力支撐才能快速有效地實施,算力是未來人工智慧應用取得突破的決定性因素。IDC預計,中國人工智慧伺服器將保持高速增長,並將在2024年達到78.0億美元。
  • 人工智慧想變「聰明」亟待算力升級
    這一報告由國際數據研究機構IDC與浪潮集團聯合發布,這也是人工智慧計算力系列報告自2018年起連續第三年的發布。報告預測,隨著人工智慧算法的突飛猛進,2020年中國人工智慧市場規模將達到約62.7億美元,未來4年將保持30.4%的年複合增長率,2024年將達到172.2億美元的市場規模。
  • 黃奇帆:數字經濟時代, 算力是國家與國家之間競爭的核心競爭力
    所以計算的算力的確抓住了社會的核心,如果說工業網際網路、產業網際網路、數字經濟的基礎的條件是能使萬物發聲的檢測,促使萬物互聯的紐帶是5G通信,那麼實現人機互動智慧世界的關鍵就在於人工智慧,在於算力,在於由大數據、雲計算、人工智慧、區塊鏈等數位化綜合體形成的算力。總之,數字經濟時代,國家和國家的競爭能力高低的核心指標就是算力。
  • 周志華:關於機器學習的一點思考
    AI WORLD 2018世界人工智慧峰會開場視頻南京大學計算機系主任、人工智慧學院院長周志華分享了他《關於機器學習的一點思考》。周志華教授表示,當前機器學習成功的背後,實際上離不開三點:1)有效的深度模型,現階段基本上就是深度神經網絡;2)存在強監督信息,也即數據都要有標註,而且越精準越好;3)學習的環境較為穩定。