谷歌的新CNN特徵可視化方法,構造出一個華麗繁複的新世界

2020-12-05 雷鋒網

雷鋒網 AI 科技評論按:深度神經網絡解釋性不好的問題一直是所有研究人員和商業應用方案上方懸著的一團烏雲,現代CNN網絡固然有強大的特徵抽取能力,但沒有完善的理論可以描述這個抽取過程的本質,人類也很難理解網絡學到的表徵。

當然了,研究人員們從來都不會放棄嘗試。IMCL 2017的最佳論文獎就頒給了 Pang Wei Koh 和 Percy Liang的「Understanding Black-box Predictions via Influence Functions」,探究訓練數據對模型訓練過程的影響(現場演講全文點這裡);近期引發全面關注的 Geoffery Hinton的膠囊論文也通過多維激活向量帶來了更好的解釋性,不同的維度表徵著不同的屬性(雖然解釋性的提高算不上是他的原意;論文全文翻譯看這裡)。

近日,來自谷歌大腦和谷歌研究院的一篇技術文章又從一個新的角度拓展了人類對神經網絡的理解,得到的可視化結果也非常亮眼、非常魔性,比如下面這樣,文中的結果也在Twitter上引發了許多關注和討論。

這表達的是什麼?這又是怎麼來的呢?雷鋒網 AI 科技評論把研究內容詳細介紹如下。

用優化方法形成可視化

作者們的目標是可視化呈現讓網絡激活的那些特徵,也就是回答「模型都在圖像中找什麼特徵」這個問題。他們的思路是新生成一些會讓網絡激活的圖像,而不是看那些數據集中已有的能讓網絡激活的圖像,因為已有圖像中的特徵很可能只是「有相關性」,在分析的時候可能只不過是「人類從許多特徵中選出了自己認為重要的」,而下面的優化方法就能真正找到圖像特徵和網絡行為中的因果性。

總體來說,神經網絡是關於輸入可微的。如果要找到引發網絡某個行為的輸入,不管這個行為只是單個神經元的激活還是最終的分類器輸出,都可以藉助導數迭代地更新輸入,最終確認輸入圖像和選定特徵之間的因果關係。(實際執行中當然還有一些技巧,見下文「特徵可視化的實現過程」節)

從隨機噪音開始,迭代優化一張圖像讓它激活指定的某一個神經元(以4a層的神經元11為例)

作者們基於帶有 Inception 模塊的 GoogLeNet展開了研究,這是一個2014年的模型 (https://arxiv.org/pdf/1409.4842.pdf ),當年也以6.67%的前5位錯誤率拿下了 ILSVRC 2014圖像分類比賽的冠軍。模型結構示意圖如下;訓練數據集是 ImageNet。

GoogLeNet 結構示意圖。共有9個Inception模塊;3a模塊前有兩組前後連接的卷積層和最大池化層;3b和4a、4e和5a之間各還有一個最大池化層。

帶有降維的 Inception 模塊(單個模塊)

優化目標

有了思路和網絡之後就要考慮以網絡的哪部分結構作為輸入優化的目標;即便對於在數據集中找樣本的方法也需要考慮這個。這裡就有很多種選擇,是單個神經元、某個通道、某一層、softmax前的類別值還是softmax之後的概率。不同的選擇自然會帶來不同的可視化結果,如下圖

以不同的網絡結構為目標可以找到不同的輸入圖像。這裡 n 為層序號,x,y 為空間位置, z 為通道序號,k 為類別序號。

要理解網絡中的單個特徵,比如特定位置的某個神經元、或者一整個通道,就可以找讓這個特徵產生很高的值的樣本。文中多數的圖像都是以通道作為目標生成的。

要理解網絡中的完整一層,就可以用 DeepDream的目標,找到整個層覺得「有興趣」的圖像。

要從分類器的階段出發找到輸入樣本的話,會遇到兩個選擇,優化softmax前的類別值還是優化softmax後的類別概率。softmax前的類別值其實可以看作每個類別出現的證據確鑿程度,softmax後的類別概率就是在給定的證據確鑿程度之上的似然值。不過不幸的是,增大softmax後的某一類類別概率的最簡單的辦法不是讓增加這一類的概率,而是降低別的類的概率。所以根據作者們的實驗,以softmax前的類別值作為優化目標可以帶來更高的圖像質量。

可視化結果一:不同的層優化得到不同的圖像

3a層

第一個Inception層就已經顯示出了一些有意思的紋理。由於每個神經元只有一個很小的感受野,所以整個通道的可視化結果就像是小塊紋理反覆拼貼的結果。

3b層

紋理變得複雜了一些,但還都是比較局部的特徵

4a層

4a層跟在了一個最大池化層之後,所以可以看到複雜性大幅度增加。圖像中開始出現更複雜的模式,甚至有物體的一部分。

4b層

可以明顯看到物體的某些部分了,檢測撞球的例子中就能清楚看到球的樣子。這時的可視化結果也開始帶有一些環境信息,比如樹的例子中就能看到樹背後的藍天和樹腳下的地面。

4c層

這一層的結果已經足夠複雜了,只看幾個神經元的優化結果可以比看整個通道更有幫助。有一些神經元只關注拴著的小狗,有的只關注輪子,也有很多其它的有意思的神經元。這也是作者們眼中最有收穫的一層。

4d層

這一層中有更複雜的概念,比如第一張圖裡的某種動物的口鼻部分。另一方面,也能看到一些神經元同時對多個沒什麼關係的概念產生響應。這時需要通過優化結果的多樣性和數據集中的樣本幫助理解神經元的行為。

4e層

在這一層,許多神經元已經可以分辨不同的動物種類,或者對多種不同的概念產生響應。不過它們視覺上還是很相似,就會產生對圓盤天線和墨西哥寬邊帽都產生反應的滑稽情況。這裡也能看得到關注紋理的檢測器,不過這時候它們通常對更複雜的紋理感興趣,比如冰激凌、麵包和花椰菜。這裡的第一個例子對應的神經元正如大家所想的那樣對可以烏龜殼產生反應,不過好玩的是它同樣也會對樂器有反應。

5a層

這裡的可視化結果已經很難解釋了,不過它們針對的語義概念都還是比較特定的

5b層

這層的可視化結果基本都是找不到任何規律的拼貼組合。有可能還能認得出某些東西,但基本都需要多樣性的優化結果和數據集中的樣本幫忙。這時候能激活神經元的似乎並不是有什麼特定語義含義的結構。

可視化結果二:樣本的多樣性

其實得到可視性結果之後就需要回答一個問題:這些結果就是全部的答案了嗎?由於過程中存在一定的隨機性和激活的多重性,所以即便這些樣本沒什麼錯誤,但它們也只展示了特徵內涵的某一些方面。

不同激活程度的樣本

在這裡,作者們也拿數據集中的真實圖像樣本和生成的樣本做了比較。真實圖像樣本不僅可以展現出哪些樣本可以極高程度地激活神經元,也能在各種變化的輸入中看到神經元分別激活到了哪些程度。如下圖

可以看到,對真實圖像樣本來說,多個不同的樣本都可以有很高的激活程度。

多樣化樣本

作者們也根據相似性損失或者圖像風格轉換的方法產生了多樣化的樣本。如下圖

多樣化的特徵可視化結果可以更清晰地看到是哪些結構能夠激活神經元,而且可以和數據集中的照片樣本做對比,確認研究員們的猜想的正確性(這反過來說就是上文中理解每層網絡的優化結果時有時需要依靠多樣化的樣本和數據集中的樣本)。

比如這張圖中,單獨看第一排第一張簡單的優化結果,我們很容易會認為神經元激活需要的是「狗頭的頂部」這樣的特徵,因為優化結果中只能看到眼睛和向下彎曲的邊緣。在看過第二排的多樣化樣本之後,就會發現有些樣本裡沒有包含眼睛,有些裡包含的是向上彎曲的邊緣。這樣,我們就需要擴大我們的期待範圍,神經元的激活靠的可能主要是皮毛的紋理。帶著這個結論再去看看數據集中的樣本的話,很大程度上是相符的;可以看到有一張勺子的照片也讓神經元激活了,因為它的紋理和顏色都和狗的皮毛很相似。

對更高級別的神經元來說,多種不同類別的物體都可以激活它,優化得到的結果裡也就會包含這各種不同的物體。比如下面的圖裡展示的就是能對多種不同的球類都產生響應的情況。

這種簡單的產生多樣化樣本的方法有幾個問題:首先,產生互有區別的樣本的壓力會在圖像中增加無關的瑕疵;而且這個優化過程也會讓樣本之間以不自然的方式產生區別。比如對於上面這張球的可視化結果,我們人類的期待是看到不同的樣本中出現不同種類的球,但實際上更像是在不同的樣本中出現了各有不同的特徵。

多樣性方面的研究也揭露了另一個更基礎的問題:上方的結果中展示的都還算是總體上比較相關、比較連續的,也有一些神經元感興趣的特徵是一組奇怪的組合。比如下面圖中的情況,這個神經元對兩種動物的面容感興趣,另外還有汽車車身。

類似這樣的例子表明,想要理解神經網絡中的表義過程時,神經元可能不一定是合適的研究對象。

可視化結果三:神經元間的互動

如果神經元不是理解神經網絡的正確方式,那什麼才是呢?作者們也嘗試了神經元的組合。實際操作經驗中,我們也認為是一組神經元的組合共同表徵了一張圖像。單個神經元就可以看作激活空間中的單個基礎維度,目前也沒發現證據證明它們之間有主次之分。

作者們嘗試了給神經元做加減法,比如把表示「黑白」的神經元加上一個「馬賽克」神經元,優化結果就是同一種馬賽克的黑白版本。這讓人想起了Word2Vec中詞嵌入的語義加減法,或者生成式模型中隱空間的加減法。

聯合優化兩個神經元,可以得到這樣的結果。

也可以在兩個神經元之間取插值,便於更好理解神經元間的互動。這也和生成式模型的隱空間插值相似。

不過這些也僅僅是神經元間互動關係的一點點皮毛。實際上作者們也根本不知道如何在特徵空間中選出有意義的方向,甚至都不知道到底有沒有什麼方向是帶有具體的含義的。除了找到方向之外,不同反向之間如何互動也還存在疑問,比如剛才的差值圖展示出了寥寥幾個神經元之間的互動關係,但實際情況是往往有數百個神經元、數百個方向之間互相影響。

特徵可視化的實現過程

如前文所說,作者們此次使用的優化方法的思路很簡單,但想要真的產生符合人類觀察習慣的圖像就需要很多的技巧和嘗試了。直接對圖像進行優化可能會產生一種神經網絡的光學幻覺 —— 人眼看來是一副全是噪聲、帶有看不出意義的高頻圖樣的圖像,但網絡卻會有強烈的響應。即便仔細調整學習率,還是會得到明顯的噪聲。(下圖學習率0.05)

這些圖樣就像是作弊圖形,用現實生活中不存在的方式激活了神經元。如果優化的步驟足夠多,最終得到的東西是神經元確實有響應,但人眼看來全都是高頻圖樣的圖像。這種圖樣似乎和對抗性樣本的現象之間有緊密的關係。(雷鋒網(公眾號:雷鋒網) AI 科技評論編譯也有同感,關於對抗性樣本的更早文章可以看這裡)

作者們也不清楚這些高頻圖樣的具體產生原因,他們猜想可能和帶有步幅的卷積和最大池化操作有關係,兩者都可以在梯度中產生高頻率的圖樣。

通過反向傳播過程作者們發現,每次帶有步幅的卷積或者最大池化都會在梯度維度中產生棋盤般的圖樣

這些高頻圖樣說明,雖然基於優化方法的可視化方法不再受限於真實樣本,有著極高的自由性,它卻也是一把雙刃劍。如果不對圖像做任何限制,最後得到的就是對抗性樣本。這個現象確實很有意思,但是作者們為了達到可視化的目標,就需要想辦法克服這個現象。

不同規範化方案的對比

在特徵可視化的研究中,高頻噪音一直以來都是主要的難點和重點攻關方向。如果想要得到有用的可視化結果,就需要通過某些先驗知識、規範化或者添加限制來產生更自然的圖像結構。

實際上,如果看看特徵可視化方面最著名的論文,它們最主要的觀點之一通常都是使用某種規範化方法。不同的研究者們嘗試了許多不同的方法。

文章作者們根據對模型的規範化強度把所有這些方法看作一個連續的分布。在分布的一端,是完全不做規範化,得到的結果就是對抗性樣本;在另一端則是在現有數據集中做搜索,那麼會出現的問題在開頭也就講過了。在兩者之間就有主要的三大類規範化方法可供選擇。

頻率懲罰直接針對的就是高頻噪音。它可以顯式地懲罰相鄰像素間出現的高變化,或者在每步圖像優化之後增加模糊,隱式地懲罰了高頻噪音。然而不幸的是,這些方法同時也會限制合理的高頻特徵,比如噪音周圍的邊緣。如果增加一個雙邊過濾器,把邊緣保留下來的話可以得到一些改善。如下圖。

變換健壯性會嘗試尋找那些經過小的變換以後仍然能讓優化目標激活的樣本。對於圖像的例子來說,細微的一點點變化都可以起到明顯的作用,尤其是配合使用一個更通用的高頻規範器之後。具體來說,這就代表著可以隨機對圖像做抖動、宣傳或者縮放,然後把它應用到優化步驟中。如下圖。

先驗知識。作者們一開始使用的規範化方法都只用到了非常簡單的啟發式方法來保持樣本的合理性。更自然的做法是從真實數據學出一個模型,讓這個模型迫使生成的樣本變得合理。如果有一個強力的模型,得到的效果就會跟搜索整個數據集類似。這種方法可以得到最真實的可視化結果,但是就很難判斷結果中的哪些部分來自研究的模型本身的可視化,哪些部分來自後來學到的模型中的先驗知識。

有一類做法大家都很熟悉了,就是學習一個生成器,讓它的輸出位於現有數據樣本的隱空間中,然後在這個隱空間中做優化。比如GAN或者VAE。也有個替代方案是學習一種先驗知識,通過它控制概率梯度;這樣就可以讓先驗知識和優化目標共同優化。為先驗知識和類別的可能性做優化是,就同步形成了一個限制在這個特定類別數據下的生成式模型。

預處理與參數化

前面介紹的幾種方法都降低了梯度中的高頻成分,而不是直接去除可視化效果中的高頻;它們仍然允許高頻梯度形成,只不過隨後去減弱它。

有沒有辦法不讓梯度產生高頻呢?這裡就有一個強大的梯度變換工具:優化中的「預處理」。可以把它看作同一個優化目標的最速下降法,但是要在這個空間的另一個參數化形式下進行,或者在另一種距離下進行。這會改變最快速的那個下降方向,以及改變每個方向中的優化速度有多快,但它並不會改變最小值。如果有許多局部極小值,它還可以拉伸、縮小它們的範圍大小,改變優化過程會掉入哪些、不掉入哪些。最終的結果就是,如果用了正確的預處理方法,就可以讓優化問題大大簡化。

那麼帶有這些好處的預處理器如何選擇呢?首先很容易想到的就是讓數據去相關以及白化的方法。對圖像來說,這就意味著以Fourier變換做梯度下降,同時要縮放頻率的大小這樣它們可以都具有同樣的能量。

不同的距離衡量方法也會改變最速下降的方向。L2範數梯度就和L∞度量或者去相關空間下的方向很不一樣。

所有這些方向都是同一個優化目標下的可選下降方向,但是視覺上看來它們的區別非常大。可以看到在去相關空間中做優化能夠減少高頻成分的出現,用L∞則會增加高頻。

選用去相關的下降方向帶來的可視化結果也很不一樣。由於超參數的不同很難做客觀的比較,但是得到的結果看起來要好很多,而且形成得也要快得多。這篇文章中的多數圖片就都是用去相關空間的下降和變換健壯性方法一起生成的(除特殊標明的外)。

那麼,是不是不同的方法其實都能下降到同一個點上,是不是只不過正常的梯度下降慢一點、預處理方法僅僅加速了這個下降過程呢?還是說預處理方法其實也規範化(改變)了最終達到的局部極小值點?目前還很難說得清。一方面,梯度下降似乎能一直讓優化過程進行下去,只要增加優化過程的步數 —— 它往往並沒有真的收斂,只是在非常非常慢地移動。另一方面,如果關掉所有其它的規範化方法的話,預處理方法似乎也確實能減少高頻圖案的出現。

結論

文章作者們提出了一種新的方法創造令人眼前一亮的可視化結果,在呈現了豐富的可視化結果同時,也討論了其中的重大難點和如何嘗試解決它們。

在嘗試提高神經網絡可解釋性的漫漫旅途中,特徵可視化是最有潛力、得到了最多研究的方向之一。不過單獨來看,特徵可視化也永遠都無法帶來完全讓人滿意的解釋。作者們把它看作這個方向的基礎研究之一,雖然現在還有許多未能解釋的問題,但我們也共同希望在未來更多工具的幫助下,人們能夠真正地理解深度學習系統。

(完)

原文以及非常多的可視化圖片可以參見原文 https://distill.pub/2017/feature-visualization/ ,雷鋒網 AI 科技評論編譯。

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • PyTorch可視化理解卷積神經網絡
    如果你是一個深度學習愛好者,你可能早已聽說過這種神經網絡,並且可能已經使用一些深度學習框架比如caffe、TensorFlow、pytorch實現了一些圖像分類器。然而,這仍然存在一個問題:數據是如何在人工神經網絡傳送以及計算機是如何從中學習的。為了從頭開始獲得清晰的視角,本文將通過對每一層進行可視化以深入理解卷積神經網絡。
  • 一位中國博士把整個CNN都給可視化了,可交互有細節,每次卷積ReLU...
    這個名叫CNN解釋器在線交互可視化工具,把CNN拆開了揉碎了,告訴小白們CNN究竟是怎麼一回事,為什麼可以辨識物品。它用TensorFlow.js加載了一個10層的預訓練模型,相當於在你的瀏覽器上跑一個CNN模型,只需要打開電腦,就能了解CNN究竟是怎麼回事。
  • 可視化地球!Google宣布將谷歌地球帶入教室
    可視化地球!Google宣布將谷歌地球帶入教室2017-06-27 06:50出處/作者:cnBeta.COM整合編輯:大淑責任編輯:huangshumin Google於4月份推出了谷歌地球的改版版本,其中包含了許多新功能,通過使用地圖和衛星圖像可以超越可視化地球,並允許用戶通過旅遊探索世界,並了解許多奇蹟。
  • 擦除:提升 CNN 特徵可視化的 3 種重要手段
    所謂擦除,就是去除掉一部分有用的信息,以提高網絡提取特徵的能力。本文對3種提升特徵可視化的方法進行了詳細綜述,包括直接擦除、利用預測信息(CAM)擦除以及Dropout方法。前言在CNN的測試階段,我們一般會用CAM(Class Activation Mapping)來判斷網絡訓練的好不好,到底可不可信賴。
  • CNN 模型的可視化
    大家都了解卷積神經網絡 CNN,但是對於它在每一層提取到的特徵以及訓練的過程可能還是不太明白,所以這篇主要通過模型的可視化來神經網絡在每一層中是如何訓練的。我們知道,神經網絡本身包含了一系列特徵提取器,理想的 feature map 應該是稀疏的以及包含典型的局部信息。
  • 自注意力可以替代CNN,能表達任何卷積濾波層
    它與以往的方法,如RNN和CNN的主要區別在於,Tranformer可以同時處理輸入序列中的每個單詞。其中的關鍵,就是注意力機制。尤其是在自注意力情況下,可以無視單詞間的距離,直接計算依賴關係,從而學習一個句子中的內部結構。那麼,問題來了:自注意力能替代CNN嗎?為了研究這個問題,需要先來回顧一下它們分別是如何處理一張圖像。
  • 數據可視化圖表怎麼做才好看?
    可視化技術仿佛有一種化平凡為非凡的魔力,冷冰冰的數據,經過可視化技術的加工,便酒麴入甕般幻化成視覺的盛宴,炫酷的、繽紛的、簡約的、繁複的……數據之美被展現的淋漓盡致。一張可視化圖片,我們主要關注2個點,一個是配色,一個是構圖。好的顏色搭配應該是不刺眼的,顏色間過渡自然的。什麼是顏色間過渡自然?就是不會一下從大紅色,跳到天藍色,又一下跳到黃色,突兀的配色會打破圖片的美感。
  • 在多目標識別方面,maskr-cnn已經取得了一些進展
    根據美國貝爾實驗室(belllaboratory)2018年5月19日最新出版的《新創新指南》(newentrepreneursguide),人工智慧能力的發展與突破,有望提高生產性能和生產效率。maskr-cnn是業界首款實用的全卷積神經網絡模型,為計算機視覺中的多目標識別與自動對焦,開創性的成為計算機視覺發展的新方向。
  • 谷歌對無監督解耦方法進行了大規模評估,還開源了用來實驗的開發庫!
    解耦模型能夠捕捉場景中互相獨立的特徵,即某種特徵不會由於其他特徵的改變而受到影響,實現特徵之間的解耦。如果能夠成功完成特徵的解耦表示,現實世界中機器學習系統(如自動駕駛汽車或者機器人)能夠將物體的屬性與其周圍環境分離,從而使得模型能夠泛化到其沒有見過的場景中。
  • 中科院趙方慶團隊提出環形RNA內部序列結構可視化新方法
    2020年1月18日,中國科學院北京生命科學研究院趙方慶團隊在 Bioinformatics 雜誌上在線發表了文章 Visualization ofcircular RNAs and their internal splicing events from transcriptomic data,開發了環形RNA的可視化工具--
  • 北京生科院提出環形RNA內部序列結構可視化新方法
    該研究主要開發了環形RNA的可視化工具——CIRI-vis軟體,具有將CIRI-AS或CIRI-Full的輸出結果可視化,且可以批量展示環形RNA  環形RNA是一類廣泛存在於真核生物中的非編碼RNA分子,其獨特的5』-3』反向剪接特徵成為絕大多數環形RNA識別工具的靶點。
  • 華人博士卷積網絡可視化項目火了:點滑鼠就能看懂的掃盲神器
    當一個深度神經網絡以卷積層為主體時,我們也稱之為卷積神經網絡。神經網絡中的卷積層就是用卷積運算對原始圖像或者上一層的特徵進行變換的層……說得很有道理,但如果將一張圖片作為輸入,這張圖片究竟會在卷積神經網絡中經歷什麼?這可真是太考驗想像力了。
  • 裴健團隊KDD新作:革命性的新方法,準確、一致地解釋深度神經網絡
    總的來說,現有的三種解釋方法都有各自的問題。「隱層神經元分析方法」(Hidden Neuron Analysis Methods)該方法通過分析和可視化神經網絡中隱層神經元的局部特徵來解釋深度神經網絡的行為。
  • 瑞士研究人員研發出細胞樣本分析新方法
    新華社日內瓦8月8日電(記者劉曲)瑞士蘇黎世大學研究人員近日研發出一種細胞樣本分析新方法,能將每個樣本可觀察到的蛋白質數量大幅增加,從而生成不同細胞狀態下的全面細胞組織圖譜。這種新方法已應用在腫瘤診斷領域,還將有助於發展精準醫學。  這種新方法被稱為迭代間接免疫螢光成像(簡稱4i)。
  • 40行Python代碼,實現卷積特徵可視化
    因此,開發解釋 CNN 的技術也同樣是一個重要的研究領域。本文將向你解釋如何僅使用 40 行 Python 代碼將卷積特徵可視化。最近在閱讀 Jeremy Rifkin 的書《The End of Work》時,我讀到一個有趣的關於 AI 的定義。
  • ...降維&可視化工具 HyperTools 的正確姿勢! | Kaggle 實戰教程
    每一行都包含一系列蘑菇的特徵,比如菌蓋大小、形狀、顏色、氣味等等。對這做降維,最簡單的方法是忽略某些特徵。比如挑出你最喜歡的三個特徵,去掉其他。但如果忽略的特徵包含有價值的甄別信息,比方說要判斷蘑菇是否有毒,這就非常有問題了。一個更複雜的辦法,是只考慮主要的東西,來對數據集進行降維。
  • 【特徵向量新解法】數學天才陶哲軒和三位物理學家的新發現
    這也是教科書裡面求特徵值的方法!然而,三位物理學家PeterDenton、StephenParke、張西寧發現了一個全新的方法:知道特徵值,只需要列一個簡單的方程式,特徵向量便可迎刃而解。大神和三位物理學家一起發表了論文,闡述了這個公式的證明過程!△三位物理學家分別是:張西寧、Peter Denton和Stephen Parke。
  • 機器學習新突破:谷歌研究人員利用AI自動重構大腦神經元
    >近日,谷歌與馬克斯·普朗克神經生物學研究所合作,在《Nature Methods》上發表了一篇重磅論文,使用一種循環神經網絡算法對神經元連接組進行自動重構,不僅可以對連接組進行高解析度的可視化成像,而且準確度提高了一個數量級,為連接組學的研究帶來了新的突破。
  • 谷歌發布新消息:人類將進入永生時代,科學家:實現方法很簡單
    人類生活的地方很美好,每個人都會以自己的方式,在這個美好的地方度過一生,不過在一生當中,我們會遇到各種挫折,還有就是疾病的困擾,在這個世界上生老病死已經是件很正常的事了,很多人越年老就會對這個世界越留戀,其實誰又想真正離開這個美好的世界呢,從古代開始就有人期盼著能夠長生不老,特別是古代的帝王,為了能夠延續自己的地位,都拼命尋找長生的方法
  • 科學網—用圖形學創造一個新世界
    他們改變了一個產業,引領了一個時代,多次獲奧斯卡獎,加冕計算機領域最高獎——圖靈獎。 這就是剛剛出爐的2019圖靈獎得主:艾德文·卡特姆和派屈克·漢拉漢。從25年前的《玩具總動員》開始,他們引領了一種全新的計算機動畫電影類型,為電影的3D動畫時代奠定了基礎。