萬字長文:2020智源大會總結-多角度看AI的未來

2020-08-11 超級電容光伏路燈



來源:人工智慧學家

以下文章來源於混沌巡洋艦 ,作者許鐵


導讀:智源大會2020 聚焦AI的未來,大家都知道, 2010是深度學習的時代, 我們經歷了AI從巔峰進入到瓶頸的過程。那麼什麼是2020這個十年AI的中心?

近一段大家逐步從各個不同的角度切入到這個主題, 比如從相關到因果, 從感知到認知, 重新結合符號主義, 結合腦科學,發展基礎數學等, 而2020的智源大會,就是分別從這些不同角度進行跨學科交流的一次盛會。

1 因果角度

一個當下機器學習界的共識是,機器學習需要從感知過度到認知,但是對於如何引導這次革命,大家的答案是不一樣的, 而一個重要的觀點在於當下機器沒有因果推理的能力。

這次會議有幸請到Jude Pearl, 因果被稱為是第二次數學科學革命。因為對於我們需要回答的大部分問題 ,都密切依賴我們對因果關係的建模, 這些問題包含對行為結果的分析和反事實推理。

比如當下如果我要達到目標A, 我如何構建中間條件, 如果我沒有做某事今天會怎樣(反事實)等。而這些能力是當下深度學習所不具備的, Jude Pearl的演講深入淺出的引入了這個問題, 並用幾個生動的例子提出了指出一些可能的解決方法。

因果理論的核心,就是do calculus, 它提到我們的模型如果要包含因果,就要能夠模擬由行為產生的結果的不同, 這和我們之前物理的mechanic model 是相通的。你有現象模型可以預測數據,但是這是觀測數據的聯繫,而非基於某個行為產生一定變化的因果模型。

為了建立這樣的模型,一些必要的數學工具是必不可少的, 比如概率圖模型,獨立因果分析框架, 有關反事實的數學模型等。

2 認知和腦網絡角度

讓人工智慧具有認知能力那麼最直接的解決方法無疑是直接模擬人類的理解和思維能力。

2.1 畢彥超 人類的平行知識表示系統

我們的知識一種是從經驗提取的,一種是存在人腦中的先驗知識。對於神經網絡,對於同樣的事物,比如香蕉和蘋果,紅色和黃色, 我們既可以形成類似CNN的物體表示, 又可以生成類似語義網絡那樣的符號結構(知識圖譜)。這兩種系統的認知基礎是什麼?

畢研超團隊通過研究先天盲人和健康人對類似的顏色等概念的表徵,證實了平行的知識表示系統的存在。例如盲人和正常人都可以形成對不同顏色的概念表示,但是這些表示通過FMRI 顯示背後活躍的腦區是有區別的。而盲人的概念表示更接近語義網絡, 正常人卻相似CNN經過ImageNet訓練得到的一般表示。

我們知道大腦最終學習概念需要學習得到從感知到抽象符號的關係, 並通過概念之間的關聯來定位一個特定概念。那麼是否這兩種表示系統需要以某種形式耦合得到人類的知識表示, 這是一個非常值得思考的方向。

PPT :blog.csdn.net/qq_411858

方方 Maps and Functions of Humbian Attention

注意地圖和功能地圖 , 大腦資源有限, 動態切換注意點是非常必要的。這就涉及注意力這個AI和腦科學都是很核心的問題。

雖然當下的注意力模型已經是AI最重要的組成部分, 但是它和大腦真實使用的注意力仍有不小的差距。我們說大腦真實的注意力有兩種不同的機制。一個是自下而上的salientcy map,另一個是自上而下與自下而上的priority map 。

這就好像當平靜的草原突然出現一匹馬,那麼你的注意力可能會突然響應,這就是salientcy mapping, 反過來,你可能因為你的目標,比如擊中飛來的網球來鎖定注意力,它就是priority map。

事實上我們發現salientcy map 從V1 就有很強的表達 ,說明這種自下而上的注意力是很基礎的。而這類attention model 也不同於我們AI的模型,而是一個動態圖, 始終在搜索圖片最具有信息的地方作為關注點, 然後跳到下一個點。構建一個動態的attnetion model 。

2.2 劉嘉 From representation to computation : the cognitve neurointelligence

通過AI研究大腦, 通過大腦啟發AI, 這個講座告訴大家如何比較深度神經網絡和大腦的」思考「方式, 如果有一天兩者開始對話,他們能夠互相理解對方嗎?

劉教授從心理學的角度來講解如何對比深度神經網絡和人腦兩個信息處理的黑箱到底能否直接進行對比, 假定我們了解了人腦認知的結構, 那麼是否可以用來啟發人工智慧系統 。

我們說當下的深度網絡是一個黑箱,事實上心理學也經常把我們的大腦比喻成黑箱。黑箱和黑箱進行比較,似乎是不可能的任務, 然而劉嘉團隊的方法 -逆向相關化使這個問題變成可能。

這裡介紹人臉識別(此處以性別識別為例)的工作,無論對人還是計算機這都是一個很重要的工作。然而我們並不清楚無論是人還是機器是怎麼完成這個任務的。

這裡我們可以想法得到女性和男性的平均臉(無數面孔的平均)。然後在這個平均臉上加上各類人為生成的奇怪噪聲然後並讓機器(一個訓練好的VGG網絡)分類是男是女, 這樣我們就可以得到一組「男性」噪聲 和 「女性」 噪聲,我們分別把兩組噪聲再此分別疊加平均後就得到兩個奇怪的斑圖,我們可以稱為feature 圖。

然後我們把「男噪聲」 和「女噪聲」兩個相減得到一個差值的feature圖, 我們會發現這時候一個非常清晰的圖案從噪聲裡湧現出來,比如我們看到眼角,嘴角,和下巴輪廓等。這就是機器用來分辨人類的特徵圖,或者說機器識別人臉的因子圖。

然後團隊對人做了相同的分析,也得到人對性別識別的這個因子圖, 這時候我們可以分析人和計算機識別人臉的相關性高達0.73 , 說明人和計算機學習到的性格學習方法高度同質化。同時這也說明隨機噪聲其實是有結構的, 我們對這個特徵圖做低頻和高頻的傅立葉分解,可以看到低頻部分人和VGG(vgg face)相關性更高。這讓機器和人對人臉的表示相關性極高且集中於低頻。

這裡討論比較認知科學和機器學習的關聯的時候,我們最好引入David Marr的三個層次語言體系, 也就是計算層, 表示層,硬體層, 人和VGG模型的計算目標(最高層)是相同的,在硬體層顯然大相逕庭, 這個研究表明在第二層次表徵層兩者卻是高度相通的。

剛剛用到的網絡是專門為人臉訓練的。我們也可以用遷移學習轉移一個從ImageNet訓練的通用CNN,然後訓練讀出層,用遷移學習來識別人臉,這時候兩者的表徵是否相通呢?實驗表明兩者表徵居然依然是類似的。

最後研究團隊用sparse coding來認識這件事。sparse coding的原理表明, 隨著網絡層級的提高,網絡表示的稀疏性隨層級增加, 這將導致對人臉識別的關鍵特徵會呈現disentagle的離散化形式,也就是可能只有少數神經元編碼一個特徵(這是神經編碼sparse coding和symbolic 表示的內在聯繫, 最終的表示是一個稀疏因子圖)

事實上高層越稀疏, 分類效果越好, 比如alexnet。人腦和深度網絡的共同選擇。心理學可以用來理解深度學習, 得到一個可解釋的神經網絡。

*** 從這個講座一個有意思的延申, 似乎我們個人識別美醜的特徵正是這些用於性別識別的特徵。

2.3 吳思 The cross talk between biology and computer vision

我們所熟知的深度網絡泛化能力有限, 容易受到噪聲幹擾, 其關鍵問題是不能抓住全局信息。所謂的全局信息在圖像處理的重要體現就是拓撲信息。人對圖片的認知從來是從宏觀到局部認知的, 所謂top-down-processing。

一個重要的假設是我們對圖象的理解是從圖象整體的拓撲結構一步步展開的:首先人的認知從拓撲開始的,人的圖像理解是一個猜測認證的過程,在一個不確定的圖片裡, 人要通過物體的整體輪廓對可能的情況進行猜測(sub-cortical pathway 比如天空中飛翔的鷹的影子),然後再提取出和這個整體輪廓相關的細節(ventral pathway,從細節到整體),鷹爪,鷹眼·, 補充對整體的認知,經過一個循環得到對視覺事物的認知 。人,先驗的知識, 經驗,記憶決定了我們要看到什麼。從高級到初級視皮層的。

深度學習只模擬了從細節到整體的ventral pathway, 而沒有那個事先提煉整體的通路subcortical pathway。實驗表明人腦能夠非常快速的探測圖像的拓撲信息, 這似乎揭示這個拓撲的認知並非那麼困難而是存在於比較基礎的腦區。

事實上這個對圖象的宏觀拓撲特徵提取的機制可能從視網膜就開始了, 人眼裡的RGC cell通過電突觸gap junction相連(正反饋),使得這部分神經元可以快速的同步化,同時興奮和抑制神經元間存在旁側抑制。

這種正負反饋並存的一個後果是對圖象宏觀結構的自然分割,比如白色背景(天空)中的一個黑色局部(老鷹)。這種同步可以幫助大腦很方便的提取低頻信息,如同在原野上燃燒的一把火,它會自然的把易燃的草地和巖石給分隔,從而抓住拓撲特徵。

我們能否利用人類對視覺圖像理解的這種兩通路設計來構建一個人工神經網絡呢?第一階段利用subcortical pathway 來實現整體的輪廓提取, 第二階段再利用ventral pathway的原理做細緻的分類。

動力學上看第一個迴路的啟動速度要快於第二個迴路, 在第一階段通過拓撲提取迴路的同步和正反饋來抓住大類。第二階段, 則通過負反饋來去掉大類平均強化對細節的注意,如此反覆循環,這將實現非常具有魯棒性的對視覺物體的理解!

吳思最終在講座中指出, 當人工智慧發展下去到認知,人腦和AI會越來越近。

** 這個講座告訴我們當下的深度學習和人類認知的很大區別在於缺乏人腦的豐富動力學機制, 加入這些機制後一些對機器很困難的事情可能是自然而然的。

2.4 餘山 From Brain Network to brain-like computation

腦和AI很大差異, 如何從計算原理的層面理解這種本質並利用腦啟發改善AI?

我們首先看細胞和突觸層面,神經細胞信息傳遞靠突觸,上遊脈衝, 神經遞質不總有效, 有隨機性的, 30%會發放當上遊信號到達。這樣隨機的發放如何能夠支持非常穩健和魯棒的智能?事實上這不是單純是生物限制,而是一種主動進化。因為它可以提高系統的泛化性。

類似啟發在深度學習的體現就是dropout的技術,dropout可以模擬某些細胞和突觸發放的隨機性,卻可以在幾乎任何任務減少泛化誤差。

另一個重要的生物啟發是臨界,我們知道生物神經網絡的動力學處在穩定和混沌的邊緣,所謂一個臨界的狀態。從圖網絡傳播的角度,這個時候的網絡內部信息具有長程關聯,又不至於信息爆炸。

利用這個原理我們可以設計蓄水池網絡,這是一種在臨界態處理信息的RNN網絡因為這個時候的工作效率最高。有意思的是,這個混沌和秩序邊緣的狀態非常像一個finetune的精細調參結果。大腦不可能調參,它是如何維持臨界態的?

這時候我們必須拿出自組織臨界的重要原理,通過引入負反饋, 我們可以使得臨界態處於一個系統的收斂穩定點狀態,從而在非常廣的參數範圍內,實現臨界。很多人認為批量正則化BN使用了類似的原理讓神經網絡處於穩定的狀態。

餘山的另一個部分講座講解了如何設計能夠根據情境調節的神經網絡。我們知道人工神經網絡不能進行情景化處理(也就是依據不同情境調節自己的認知狀態),而這是大腦的本質特點。

背後的重要原理是大腦是個平行通路的系統,從sensory cortex進來的信息, 一方面直接通過視皮層層層抽象, 並輸入給運動皮層作動作決策(下意識動作),另一方面通過cortex進行認知推理,得到關於情景的高層信息, 再往運動皮層推(理解之上的動作), 類似於我們說的系統一和系統二。

我們能否根據這個原理設計一個神經網絡?因此我們可以在CNN中加入一個平行於前饋網絡context modulation 模塊(yu 2019)。這個模塊可以調控感知信息的處理過程。

事實上這個模塊更加類似一個學習的調控器,它可以根據識別到的情景對在網絡內傳遞的梯度進行調整,從而顯著緩解災難遺忘改善連續學習。因為學習新內容的過程無疑會擦掉以往權重,這導致神經網絡很難持續不斷的學習到新的內容,而剛剛加入的情景調控模塊引入一個OWM算法, 也叫正交調節器。就是當這個模塊識別到情景的變化,就把權重的學習投影到與之前情景正交的子平面上。

Yu Nature Intelligence 2019

** 餘山的講座提到的核心點與吳思有相通之處,就是充分利用人腦的平行迴路原理。

腦與認知模塊總結:

如何利用腦啟發改善AI的模塊是我本次大會最喜歡的模塊, 從這裡,可以看到大家達成共識的點是

1,大腦是個動力學系統, 很多動力學的基本原理對AI目前的致命缺陷有重大補充, 因果或邏輯可能蘊含在動力學裡。臨界很重要。

2. 人腦的稀疏表示與符號注意AI和因果有重要聯繫

3, 充分利用平行迴路設計系統

3 Consciousness AI

大會也涉及了當下認知科學和AI交叉領域的最hot topic - 意識,雖然只是一小部分、

會議邀請了研究意識問題的計算機科學家Manuel Blum 和 Lenore Blum兩個專家(夫婦)。

首先, 兩個科學家介紹了意識作為科學的發展史。1988 年 科學家首次發現了意識的實驗證據 (FMRI evidences) , 之後人們從不同領域進入意識的研究, 比如神經科學, 哲學, 計算機。

之後Blum指出如果要建立一個意識的模型,它需要具備的特點。首先意識的模型並不等價於全腦模型,但是它必須符合湧現性的原理(複雜科學最重要的概念, 複雜從簡單中脫穎而出的一種跳躍變化), 而且構成意識的神經組織和非意識的組織應該是共享的而非隔離的(同樣腦區可以既處於有意識也處於無意識狀態)。

然後Blum指出了如何讓意識模型和計算機模型對應。它提出意識的功能是一個從長期記憶力提取短期記憶內容的提取器(類似一個pointer)。因為我們的長期記憶事實上處於無意識狀態, 這個內容的數量浩如星海。

而短期工作記憶卻是你我都可以意識到的, 但它通常只有幾個bits。這個信息瓶頸可能就是需要意識來實現,它需要根據當下的任務和情景把和任務最相關的因子提取出來。

這正是著名的(conscious turning machine) Baar&39;|s,a)* p(s,a)來假定狀態轉移矩陣和狀態之間的獨立性來增強可遷移性。還有比如利用類似對抗學習的優化方法,可以把長程優化誤差迅速縮小。

可學習世界模型的思想可以用於商品設計, 把顧客買家當成世界模型,學習顧客這個model。可以用於網約車, 可以學習一個司機的虛擬模型-模擬器。可以用於商戶揀貨問題, 學習工人和商品派單系統 world & agent,甚至學習一個砍價機器人, 從而提高所有電商, 推薦, 網約車等等商業問題的效率,非常有前景。

最後總結人類決策技術的進步史:專家決策 - 專家設計模擬器決策- 專家設計可以學習的模擬器來學習決策 - AGI?模型是強化學習進入真實世界的必經之路

**此處聯想世界模型和因果的聯繫,理想的世界模型是一個包含do 的因果model, 而且模型動力學和數據分布獨立-便於因子化factorization。如同粒子狀態和作用力獨立(相互作用關係模型)。當這種假定是合理的, 結果將迅速提升。

PPT:blog.csdn.net/qq_411858

6.3 張偉楠 Model base reinforcement learning & bidirectional model

深度強化學習和無模型的強化學習是一對絕配,因為無模型強化學習非常適合在深度神經網絡的框架裡來進行,然而離開遊戲場景無模型強化學習就會產生數據效率低效的問題,如果試錯無法從環境中得到有效信息, 試錯將毫無意義。為了解決這個問題, 提出model base 是必須的。

基於模型的學習高效的一大原因是一旦模型學習到,可以直接在模型裡perform on-policy learning,從而極大提高數據的適用效率(on policy下數據採樣的集合和實施策略的集合是最匹配的)

後面的講座主要強調基於模型學習的優化方法, 一類所謂黑箱模型,例如dyna-Q, MPC 。模型本身也是未知的神經網絡。一類是白盒模型,即模型完全已知。

模型的加入可以提高數據適用效率,但是也會引入一定的bias。以黑盒算法 Q-planning為例。當學好一個模型後, 我們可以從模型中採樣得到一個action sequence(想像中的行為) ,從而計算得到accumulative rewards。

用術語說就是採樣一個軌跡 sample a trajectory, 如果模型本身是不準確的(主觀和客觀的差距)那麼這個差距會在整個軌跡放大。因此我們知道我們一方面要控制模型的精度,一方面要控制這個想像軌跡的長度。當前者模型誤差越小,後者軌跡可以抽樣的時間就越長 。

能不能有效改進這個方法呢?此處引入一個叫bidirectional model的模型改進 。什麼意思, 就是考慮前向預測, 也考慮往歷史。以往的想像軌跡只考慮未來n步發生的事情,現在我還會推測之前發生的事情,以及如果之前採取其它動作,可能到達的狀態。這樣時間上的雙向性會縮小由於模型偏差帶來的誤差。

**此處是否想到因果的counter-factual呢?

PPT: blog.csdn.net/qq_411858

以上是我總結的內容,會議全部內容名單請見:2020.baai.ac.cn/

7 最終總結-世界模型

這次會議是特別有趣的, 不同領域的人根據自己的經驗提出了不同的approach在不同角度告訴我們什麼可能是達到AGI的最短通路 。那麼如果我總結什麼可能是一個最短的到達下一個AI階段的通路呢?

其實大會最終採訪LSTM之父施密特的對話很有意思。在對施密特的採訪中,他興高採烈的介紹了LSTM的崛起, 和他的貢獻,並認為這是一個由大腦啟發的能夠解決大量不同實際任務的成功典範。

那麼我們回顧下LSTM為什麼如此成功,首先,它是一個動力學模型, 與CNN那些前饋網絡不同,LSTM模型事實上可以對一個動力過程進行模擬。而我們的物理學嘗試告訴我們,世界的本質就是一臺動力學機器,每個齒輪的轉動拉動了整個宇宙向前。LSTM具有對宇宙齒輪的模擬能力,因此,它可以做不同的任務,學習不同的領域。

這臺機器具體包含哪些部分?它有一個記憶memory, 有一個中央動力處理單元h, 是一個神經元互相反饋的通用圖靈機, 還有一個執行單元o,輸出對未來的預測和動作。

這個機器像大腦卻不是, 專家最後說施密特未來的神經網絡,lstm的接任者需要有什麼特徵。施密特很快堅定的說它需要更像大腦, 需要具有自我發現和探索的好奇心。

然後它需要一個能夠預測世界的,尤其是自我行為對世界影響的world model, 以及一個能夠根據這些 知識做出行為決策的行為的action model, 這兩個model組成一個循環的反饋系統。這樣的模型可以像小孩子一樣從真實世界裡通過探索學習得到抽象的知識。

我們從這個角度出發,將看到此次大會的所有topic 的聯繫。這裡的第一個關鍵詞是world model,它圍繞獎勵而來,卻時時刻刻滿足著自己的好奇心,用來discover真實世界的抽象規律。

因果學派說的世界如同一個概率圖模型,每個節點之間的關係可以由節點的擾動(do)和它的影響刻畫。說的不正是這個充滿好奇的world model需要做的事情,根據自己的行為或自己感測到的外界變化預測未來未知世界的關鍵?

而具體的這個world model的抽象能力, 不正是類似於在真實的世界中提取這樣一個核心變量組成的圖網絡?

因此圖網絡學派可能說對了世界模型的一個重要組成成分, 它卻沒有涵蓋這個圖是怎麼產生的這個最核心的議題,如何產生這張圖,這讓我們想到認知科學啟發專題的若干講座,大腦是如何完成這個工作的。

而world model不是關注世界所有的內容,而只關心和智能體完成任務最相關的信息,這就是強化學習的觀點, 或者叫做以行為為中心,以任務為導向

當我們有了world model和action model, 而且world變得越來越複雜不能用一個模型來運轉的時候,是不是我們可以在此基礎上加一個超級觀察者或者叫self model,這個self model可以預測哪些部分的world model 需要進入到action model供action 決策,同時預測action根據這些信息的決策結果?這個self model是不是就是我們要的意識模型呢?

由此看, 這幾個流派已經貫穿成一體。最終我們要實現上述的任何步驟,無疑都需要向我們的大腦取經。因為自然設計已經給了我們一份完美的解決上述通用智能問題的框架,當我們讓機器執行的任務和人越來越接近,無疑將會參考這份完美答案。

相關焦點

  • 內行的AI盛會——北京智源大會帶你洞見未來!
    世界AI看中國,中國AI看北京。2019年10月31日-11月1日,在北京市人民政府的指導下,北京智源人工智慧研究院將在國家會議中心召開北京智源大會(BAAI Conference,大會網站)。會議將匯集幾十位國際頂尖AI學者和專家,共同探討AI最新的學術進展和產業趨勢,並展示AI科研、產業的最新成果。為什麼要參加北京智源大會?
  • 圖靈深視團隊參展北京智源大會——交流碰撞,與時俱進
    2019年10月31日-11月1日,在北京市人民政府的指導下,北京智源人工智慧研究院在國家會議中心召開北京智源大會。會議匯集幾十位國際頂尖AI學者和專家,共同探討AI最新的學術進展和產業趨勢,並展示AI科研、產業的最新成果。
  • 阿里巴巴、智源研究院、清華大學聯合發布全新AI模型,可賦予AI認知...
    1月12日,阿里巴巴、智源研究院、清華大學等聯合研究團隊發布面向認知的超大規模新型預訓練模型「文匯」。該模型不僅能提升AI的理解能力,還可基於常識實現AI創作,未來將應用於文本理解、人機互動、視覺問答等場景。
  • 打破語言壁壘,百度翻譯同傳為智源大會構建跨國溝通橋梁
    6月21日至24日,2020北京智源大會盛大開幕,五位圖靈獎得主、十多位院士、一百多位專家學者齊聚一堂,共同探討人工智慧的下一個十年。受疫情影響,本屆大會以在線直播的形式舉行,吸引了全球學術界、產業界超過2.5萬人報名參會。
  • 中國最大AI預訓練模型發布:113億參數,北京智源研究院、阿里、清華...
    而近日,北京智源人工智慧研究院發布了與此類似的中國最大AI模型文匯,包含113億參數。對此,智源研究院學術副院長、清華大學計算機系唐傑教授認為:GPT-3等超大型預訓練模型在處理複雜的認知推理任務上,例如開放對話、基於知識的問答、可控文本生成等,結果仍然與人類智能有較大差距。為了解決諸如此類現存的問題,早在去年10月,智源研究院啟動了新型超大規模預訓練模型研發項目「悟道」。
  • 智源研究院發布認知神經基礎重大研究方向—新聞—科學網
    8月24日,北京智源人工智慧研究院(以下簡稱「智源研究院」)在清華智源中心舉行了「人工智慧的認知神經基礎」(以下簡稱「認知神經基礎」)重大研究方向發布會
  • 爆梗小天才李雪琴髮長文自謙講得...
    爆梗小天才李雪琴髮長文自謙講得一般時間:2020-09-24 12:32   來源:發星網    責任編輯:沫朵 川北在線核心提示:原標題:李雪琴左拐也是一種右拐什麼意思?爆梗小天才李雪琴髮長文自謙講得一般 這一季的《脫口秀大會》也接近尾聲了,而這次很多人都被李雪琴吸引了注意了,不過近日她被淘汰了,李雪琴髮長文告別脫口秀大會,表示自己苟得還可以,覺得自己害行,還會繼續努力的。 李   原標題:李雪琴左拐也是一種右拐什麼意思?
  • Facebook AI 年度總結來啦
    雷鋒網 AI 科技評論按:2019 年已經過去半個月啦,大家的年末總結和新年計劃做好了嗎?最近,Facebook 做了一份 AI 年度總結,詳述了他們過去一年在 AI 上所做的代表性工作(看到眼花)。Emmm,要是哪位同學的年度總結像 Facebook 一樣豐富多彩,相信一定發 paper、拿 offer 到手軟。
  • 2020網易未來大會:沈昌祥院士將出席大會 預見未來
    網易未來大會將在杭州盛大舉行。關於2020網易未來大會:2020網易未來大會將成為年底杭州最熱打卡地。三天頭腦風暴、六大燃爆論壇、未來之門好奇星球...全球頂尖頭腦開講、AI作詞主題曲、區塊鏈門票、未來限定聯名IP,思想性和有趣玩法,都在2020網易未來大會。未知的時代,未知的機遇和挑戰,我們如何去面對?經濟、技術、文化、自然的衝撞和融合,將產生多大的巨大能量?科技日新月異,世界瞬息萬變,關於未來,網易未來大會,邀您一起探索。
  • 陳春花萬字長文:向未來求知,你需要全新領導力
    以下是騰訊「激發共創」T+HR峰會演講整理(萬字長文,建議收藏細讀)1人類開啟「向未來求知」今天對於HR的要求,跟以前完全不一樣。我之前看馬丁·雅克,這是一個特別熱愛中國的國外學者,他寫了很多書來介紹中國,其中有一本書叫做《當中國統治世界》,這本書裡面他說,「中國跟日本、美國都完全不一樣,最大的不一樣就是它所有的改革開放都是向歷史學習」。這是一個很有意思的評價。日本明治維新是徹底地向西學習,他說中國沒有徹底向西學習,我們更多的還是回看歷史去學習。
  • 2020億邦未來零售大會 尋找未來零售確定性
    15屆悠久歷史,2020年首次提檔。未來零售將會有那些新的變化?未來零售發展方向在哪?2020億邦未來零售大會邀您理性穿透2020年的不確定性,大膽預測2021年的確定性。六、2020億邦未來零售大會數位化創新專場議程2020億邦未來零售大會除兩場主論壇外,還包含兩個專場論壇。
  • 5.1萬字 記錄蹺腳牛肉前世今生
    四川省文化和旅遊發展大會、第六屆中國(四川)國際旅遊投資大會、第七屆四川國際旅遊交易博覽會(以下簡稱「三會「)即將在樂山舉行。9月17日,盛會前夕,樂山市市中區政協內刊《文史資料選輯》(2020年)(總第34輯)——非遺蘇稽蹺腳牛肉專輯出版,為樂山旅遊助力,為美食文化添磚加瓦。
  • 北京智源-京東聯合實驗室「城市計算夏令營」正式開營!「城市計算...
    2020年7月14日,由北京智源人工智慧研究院主辦、京東智能城市研究院承辦、清華大學電子工程系協辦的「第一屆城市計算夏令營」開幕式暨「城市計算與智慧城市論壇」在線上舉辦。北京智源人工智慧研究院黃鐵軍院長為開幕式致歡迎辭。黃院長介紹,北京智源人工智慧研究院(簡稱「智源研究院」,BAAI)成立於2018年11月14日,是在科技部和北京市委市政府的指導和支持下,由北京市科委和海澱區政府推動成立的新型研發機構,依託北京大學、清華大學、中國科學院、百度、小米、字節跳動、美團、曠視科技等北京人工智慧領域優勢單位共建。
  • 元培商學院"跨越2019,展望2020"總結大會隆重召開
    2020年1月17日,為全面提升員工能力,保持企業高質量發展水平,總結2019年工作得失,具體部署2020年的新工作內容,元培商學院2019年度"跨越2019,展望2020"總結大會在河北霸州舉行。本次會議由元培商學院院長主持,學院全體員工共同參加。
  • 預見未來 陳曉紅院士將出席2020網易未來大會
    12月18日-20日,2020網易未來大會將在杭州盛大舉行。大會以「洞覺 未見」為主題,匯聚全球最強大腦,期盼以遠見超越未見,去尋找打開未來的鑰匙。大會將進行三天的頭腦風暴、涵蓋了預見未來、新基建、人工智慧、區塊鏈、潮商業、健康生活等論壇。  中國工程院院士、全國政協委員、湖南工商大學校長、中南大學商學院名譽院長陳曉紅將出席大會,並發表主題演講,就區塊鏈技術的應用,以及如何賦能數字經濟發表獨到觀點。
  • 蘭州體育館召開2020年終總結暨考核表彰大會
    1月6日下午,蘭州體育館全體職工召開了2020年終總結暨考核表彰大會。各科室對全年工作進行了總結匯報,也展望了新一年的工作。 王紅館長代表蘭州體育館對全年工作進行了總結。她表示,在過去的2020年,蘭州體育館按照省體育局黨組的安排部署,承接了兩場館、一公司、一協會、一基地、兩單位共7家機構的工作任務,在未增加人員的情況下,依靠全體職工的團結協作,不斷攻堅克難,圓滿高效地完成了任務,這是每一位體育館職工的驕傲。
  • 「銘師堂教育市場部2020學年下學期總結大會」圓滿成功
    8月14日,銘師堂教育市場部2020學年下學期總結大會暨2021學年啟動會隆重舉行。  會議上,銘師堂教育市場部總經理梁傑回顧了自年初疫情以來,公司公益助力「停課不停學」活動。  最後,銘師堂董事長趙華峰肯定了2020學年市場部在各方面所取得的耀眼成績,同時也指出,面對決勝2025的關鍵時刻,市場部要繼續以利他之心成就客戶,以經營意識耕耘市場,同時永葆激情、持續創新,用更專業的知識武裝自己,用更貼心的服務成就客戶,用更果敢的思維開拓創新
  • 《2020北京人工智慧發展報告》發布,剖析北京AI發展的17個中國「第...
    市級層面自2017年出臺《北京市加快科技創新培育人工智慧產業的指導意見》以來,發布實施北京智源行動計劃,創新機制體制,成立智源研究院等新型研發機構,並相繼出臺《北京市加快應用場景建設推進首都高質量發展的工作方案》《關於通過公共數據開放促進人工智慧產業發展的工作方案》《關於加快培育壯大新業態新模式促進北京經濟高質量發展的若干意見》等政策文件。
  • 解析了華晨宇30多首歌曲,寫了10萬字長文,總結了12個字
    從《歌手》開始關注花花,解析了他很多音樂作品,解析了30多首歌,寫了50多篇樂評文章,將近10萬字,我將其總結為12個字。孤獨、霸氣、空靈、哲理、個性、溫暖。華晨宇的創作來源於真實與想像。生活的真實、自由的想像,有詮釋大愛的哲理,有內心的小溫暖。
  • 開放共贏、協同成長 2020騰訊視頻內容生態大會召開
    12月19日,以「萬物向新、共生共贏」為主題的2020騰訊視頻內容生態大會在京舉行,騰訊視頻副總裁王娟出席會議並分享了騰訊視頻在內容生態建設上的新思考與新布局。