計算機能不能像人腦一樣將存儲和計算合二為一,從而高速處理信息?

2020-12-05 中華網科技

受人腦工作機理、計算方式等啟發,近年來,科學家們試圖借鑑人腦的物理結構和工作特點,讓計算機完成特定的計算任務。

不過,受制於傳統計算機架構瓶頸的限制,在目前的信息計算處理技術中,數據存儲和計算需要由存儲晶片和中央處理器分別來完成。數據在二者之間「搬運」處理,耗時長、功耗大,還隨時有可能「交通堵塞」。

計算機能不能像人腦一樣將存儲和計算合二為一,從而高速處理信息?

近日,清華大學微電子所、未來晶片技術高精尖創新中心研究團隊,與合作者共同研發出一款基於多個憶阻器陣列的存算一體系統,能夠高效地處理卷積神經網絡,能效比圖形處理器晶片高兩個數量級,有望大幅提升計算設備的算力,相關成果近日發表於《自然》雜誌。

存算一體小功耗實現大算力

隨著人工智慧應用對計算和存儲需求的不斷提升,集成電路晶片技術面臨諸多新挑戰。一方面,摩爾定律「漸行漸遠」,通過集成電路工藝微縮的方式獲得算力提升越來越難;另一方面,傳統架構中,計算與存儲在不同電路單元中完成,大量數據搬運會造成功耗增加和額外延遲。

「如果我們把居家生活比作存儲,把上班比作計算,每天上班路上會消耗時間、能量,遇到早晚高峰,通勤時間會更長。這個場景和信息處理有很多相似之處,如果存儲和計算合二為一,就相當於居家辦公一樣,能減少通勤時間也能節省體力消耗,可以用更小的功耗實現更大的算力,減少數據傳輸的延遲。」該團隊的研究成員之一、清華大學未來晶片技術高精尖創新中心教授吳華強說。

所以,如何實現計算存儲一體化、突破算力瓶頸,成為近年來國內外的科研熱點。

憶阻器,是繼電阻、電容、電感之後的第四種電路基本元件,這種元件的阻值是由流經它的電荷確定的。即使電流中斷,憶阻器的電阻仍然會停留在之前的數值,這意味著,就算是斷電了,這一部分的數據還可以保留。再加上憶阻器的尺寸小,可以大規模集成,功耗低,又適合做模擬計算,所以研究團隊認為,可以用憶阻器嘗試做存算一體、低能耗類腦計算。

但現實遠比理想骨感。憶阻器器件間波動、器件電導卡滯、電導狀態漂移等,會導致計算準確率降低,製備具有高一致性、高可靠性的多值憶阻器陣列很困難。

憶阻器性能好壞,很大程度上取決於材料的選擇與組合。在選擇材料時,團隊主要考慮所選材料的物理參數是否易調控、未來是否適合產業化。

出於這些考量,團隊在憶阻器常用的二氧化鉿材料上,添加了一層界面調控層。這個界面調控層是一種金屬氧化層材料,它的不同成分佔比可以根據不同工藝精確控制。通過這種方法,可以比較有效地控制憶阻器中二氧化鉿部分的微觀變化,以及內部的溫度和電場。

「界面調控層就像一層口罩,不僅能隔絕病毒、灰塵,還能保暖、保溼。這種設計方式使器件具有非常優異的電學特性,而且可以在工廠裡大規模生產。」該研究團隊的高濱副教授說。

或許會率先應用在人工智慧領域

想讓憶阻器存算一體系統解決實際問題,需要在處理大量的計算任務中,克服器件、系統、算法等方面的瓶頸,卷積神經網絡是很好的「試金石」。

卷積神經網絡是一種重要的深度學習模型,借鑑了人腦處理視覺信息的方式,從算法角度,通過卷積、池化等操作,高效提取圖像、視頻等特徵信息,在多種計算機視覺任務處理中取得了很好的效果。在傳統計算架構中,受限於存儲和計算分離的設計,實現卷積神經網絡模型會出現功耗高、延時長,無法滿足眾多生活場景中電池容量、實時操作等要求。

團隊認為,存算一體的憶阻器,可以用來實現卷積神經網絡等深度學習模型的高效處理,滿足日常應用對算力、功耗的要求。他們還提出了空間並行的機制,將相同卷積核編程到多組憶阻器陣列中,各組憶阻器陣列可並行處理不同的卷積輸入塊。他們集成了8個憶阻器處理單元,每個單元陣列包含2048個憶阻器件,用以提高並行計算的效率。該系統高效運行了卷積神經網絡算法,成功驗證了圖像識別功能,證明了存算一體架構全硬體實現的可行性。

吳華強說,憶阻器存算一體系統,或許會率先應用在人工智慧領域,如果用基於憶阻器的存算一體晶片生產手機,那麼晶片的算力幾乎可以讓手機掌握「讀心術」,「它能聽懂你的聲音,知道你喜歡哪些照片,會跟你越來越親近,變得越來越智能。」

責任編輯:kj005

文章投訴熱線:156 0057 2229 投訴郵箱:29132 36@qq.com

相關焦點

  • 人腦不能處理和檢索知識存儲記憶
    進入十八世紀,電和化學方面的發現又引發出人類智能的新理論,這些理論實質上依舊多為比喻性的。而到了十九世紀中葉,德國物理學家亥姆霍茲有感於當時最新的通信發展,將人腦比喻成了電報機。這些比喻性理論都反映當時相關的最新思想。可以想見,上世紀四十年代計算機科技出現之後,不出幾年就有了人腦像計算機一樣運作的說法:大腦是硬體,思想則是軟體。
  • 這種2D材料能讓計算機像神經元一樣具備處理和存儲數據的能力
    洛桑聯邦理工學院(EPFL)的工程團隊近日開發出了一種新型計算機晶片,可在相同電路中處理和存儲數據。團隊使用了名為二硫化鉬(MoS2)的二維材料,能夠讓電子產品更小、更節能。在傳統計算機中,通常會在一個區域(CPU)處理數據,然後在將數據傳遞到另一個區域(例如硬碟和固態硬碟)進行存儲。這種模式已經為我們服務了數十年,但這並不一定是最有效的處理方式。
  • 人腦相當於多大的內存?科學研究發現,人腦記憶存儲潛力巨大
    大腦是中樞神經系統中最高級的部分,具有存儲處理信息的能力,運動、感覺、語言和情緒都是由它處理的。可以分為左右兩個半球,半球之間通過神經纖維相連。而大腦皮層則是大腦中最發達的部分,大部分高級思維活動都是由它負責。神經元的數量的對應著著腦的能力。
  • 人腦相當於多大的內存?科學研究發現,人腦記憶存儲潛力巨大
    大腦是中樞神經系統中最高級的部分,具有存儲處理信息的能力,運動、感覺、語言和情緒都是由它處理的樹突像樹根一樣有很多分支,但是很短;軸突則細而長,分支少。樹突的作用是接收軸突傳來的信號。軸突的作用則是接受各種外來刺激信號,人類各種各樣的感覺就來源於軸突延伸出來的神經末梢,這些神經末梢會與各種感受器(比如熱覺感受器)連接在一起。 神經元和神經元之間的連接部分叫突觸,它們就如同計算機中的電晶體,可以控制信號的輸入輸出。
  • 會「學習」的人工突觸 比人腦處理信息快
    【IT168 資訊】「以神經元為模型的超導計算晶片可以比人腦更快、更高效地處理信息。」《科學進展》(Science Advances)於近日所描述的這一成就是開發用於模擬生物系統的高級計算設備的關鍵基準。它可以打開更自然的機器學習軟體的大門,雖然許多障礙仍然可以在商業上使用。
  • 電腦到人腦,計算機必不可少的4大思維
    一臺計算機可以運行我們定義的各種算法,人腦卻只能運行一套特定的算法。而且,模仿計算機在很大一個限制上是準確性存在問題的,而避免這一問題的方法就是增加通道的準確性。另一個棘手的問題是傳送中出現錯誤的概率隨著信息量的增加而迅速增加。模擬計算機通過柔性降級的方法處理該問題。這是怎麼做到的呢?秘訣就在於冗餘。
  • 人腦細胞能像微型計算機一樣工作,人類神經元關鍵結構差異被揭示
    這一研究揭示了電信號沿著人類樹突傳遞時強度減弱更快,也因此產生了更高程度的電生理分區化,說明小區域的樹突能相對獨立於同一神經元其他部分進行生理活動。 研究者表示,這一差異可能是人腦計算效能優於其他生物的一大原因。
  • 鐵電材料有望使計算機告別矽時代 計算處理與存儲為一體
    目前,一種新的符合計算機行業使用要求的材料出現在人們面前。如果這種材料可以成功運用於計算機領域,這將使計算機處理器不僅能有效提高能源利用率,而且能夠提高運算能力和存儲能力。 經過研究,研究人員發現,他們可以利用電荷在四種不同狀態之間進行快速切換的鐵電材料來存儲數據。
  • 普渡大學研究團隊開發出一種能同時計算和存儲的晶片
    存內計算晶片在AI時代中也獲得了不少關注,不過普渡大學的工程師開發的方法是從材料的角度進行創新,實現了晶片在計算的同時也可以存儲。研究人員稱,未來如果這種晶片的進一步改進將有利於類腦計算的發展。計算機晶片使用兩個不同的組件來處理和存儲信息。如果工程師可以將兩種組件組合成一個或彼此相鄰放置,那麼晶片上將有更多的空間,從晶片速度更快,性能更強大。
  • 解讀神經擬態計算:讓機器像大腦一樣"思考"
    而目前,神經擬態計算就是這樣一種神奇的技術。·如何讓機器像人腦一樣工作  要想了解神經擬態計算,那麼首先要了解自然智能。,同時了解大腦的工作機制,最終讓計算機或機器具備如人腦一樣的近自然智能特性,從而讓計算機或機器具備更低能耗、更加高效、容錯率更高的能力。
  • 人造突觸問世計算機模擬人腦不是夢
    近日,史丹福大學和桑迪亞國家實驗室的研究人員們構建出了一種人工突觸,這種突觸提高了計算機模擬人腦的效率,有力地促進了該領域的發展。「它就像真的突觸一樣,但它的確是人工設計的有機電子器件」,阿爾佩託·薩萊奧介紹道。他是史丹福大學材料科學與工程系的副教授,同時也是本篇論文的資深作者。「此前從來沒有報導過類似的結構,所以這完全是一種嶄新的器件。
  • 施路平:類腦計算——人腦與電腦
    這樣一個宇宙是基於我們現在的計算機架構,而計算機架構又基於馮諾依曼架構。 馮諾依曼架構是我個人認為人類發展史上最簡潔、漂亮、對我們影響最大的一個架構。它的特點是計算和存儲分離,計算和存儲都通過總線來回調度。大家可以設想一下,來回調度耗費了很多能量,耽誤時間速度慢,造成了堵塞,所以有了帶寬的瓶頸。
  • 中國發明人腦計算機來了,超越美國。
    然而計算機的發展,在當時選擇了以數值計算見長的馮·諾依曼架構,也就是以數字加減乘除的方式來進行信息架構。隨著摩爾定理逐漸失效,馮·諾依曼架構帶來的局限日益明顯,存儲牆、功耗牆、智能提升等問題,讓當前計算機發展面臨重大挑戰。比如,存儲牆問題是由於現有的馮·諾依曼架構中數據儲存和計算的分離產生的,「這就好比信息存儲在甲地,要計算的時候就把信息搬到乙地去,計算好了再搬回甲地去。
  • 未來計算機:比現在快億倍 隨時變身抵禦攻擊(圖)
    人們目前所熟悉的電子計算機,從第一代的電子管計算機到第五代智能計算機,都是傳統的計算機,由電信號來傳遞、存儲和處理信息。  光子計算機是相對電子計算機而言的,又名「光腦」。光子計算機由光信號來傳遞、存儲和處理信息,光子作為信息載體,在以光互連代替導線互連、以光硬體代替電子硬體的機器內部,以接近每秒30萬千米的速度傳遞和處理信息。
  • 英特爾將推新型神經擬態計算系統,可模仿人腦工作方式 | 硬科技
    記者 | 彭新編輯 |1CPU和GPU等傳統通用處理器特別擅長處理人類難以完成的任務,例如高精準度的數學運算。然而,當此類處理器即時處理非結構化和充滿雜訊的數據,並同步進行記憶、演算、推理和計算時,例如在圖像和聲音上,將很難滿足需求。
  • 科幻照進現實:植入納米機器人,人類能像《黑客帝國》中一樣下載信息
    前者的代表是走向神壇的「人工智慧」,其基礎神經網絡研究就是模仿人類大腦的神經元,讓機器使用神經元之間處理信息的模式來處理信息;後者的代表是「腦機接口」,用信號加工技術將原始的腦活動轉化為數字命令,這樣你就能用「意念」控制外部世界。相較於「人工智慧」在神經網絡方面已照進現實,「腦機接口」則聽起來像是科幻小說中才會出現的概念。
  • 用計算機復刻大腦
    相比傳統計算機的高能耗問題,它的典型運行功耗只需要350至500瓦。目前它是全球神經元規模最大的類腦計算機,這一成果也標誌著我國類腦計算技術發展迎來新的裡程碑。讓機器無限模仿人類,模擬大腦的機制和結構是人工智慧最重要的發展方向,因此在計算機發展方向上,借鑑人腦信息處理方式,來打破「馮·諾依曼架構」就是大勢所趨。
  • 浙江成功研製神經元規模最大的類腦計算機
    2015年和2019年浙江大學分別研製成功達爾文1代和達爾文2代類腦計算晶片,用晶片去模擬大腦神經網絡的結構與功能機制,在圖像、視頻、自然語言的模糊處理中具有優勢。而這次的成果是將數百顆達爾文2代類腦計算晶片集成在3臺1.6米高的標準伺服器機箱中,從而形成一臺強大的機架式類腦計算機。
  • 能造出像人一樣「思考」的機器嗎?—新聞—科學網
    「目前,我們還沒有製造出能像人一樣思維的機器,我們只能在一些狹義領域,製造出比人類某些智能更出色的機器。這並不奇怪,因為這些領域關注的是計算機更擅長的事——基於數學的邏輯的算法和對以往事實的快速存取。」 在馬慶國看來,計算型的智能只是人類智能的一部分。在這種類型的智能方面,人造的機器超過了人。但在「理解」(如,理解語言、理解社會)方面,人工智慧與人類智能有質的差異。
  • 世界第四超級計算機工作40分鐘 模擬1%人腦活動1秒
    人腦究竟有多強大?數十年來人們一直試圖讓電腦能具有人腦一樣的思考能力。日前,德國和日本的科學家,運用世界計算能力第四的超級計算機耗時40分鐘,成功模擬了大腦活動有史以來最長的時間——1秒。本次模擬的是1秒內17.3億神經細胞(當然,這並非完整的人腦細胞數量)的活動,使用K-Computer的82944個處理器+1PB內存進行計算。