降維算法讓腦神經大數據處理變簡單

2020-11-30 科學網

 

絕大部分感覺、認知和運動發起功能都依賴腦中大量神經元相互作用。隨著神經元記錄技術的發展,科學家能同時監視、記錄腦中數百個神經元的活動,並有望將這一數字成倍提高。但關鍵問題不是為了超越單個神經元,而是從這些神經元集群的記錄中,能得到什麼科學解釋。

對神經元活動的簡單記錄不會自動產生明確的表達,讓科學家理解大腦是怎樣工作的。據物理學家組織網8月25日(北京時間)報導,美國卡內基·梅隆大學(CMU)和哥倫比亞大學(CU)的兩位科學家在最近一期的《自然—神經科學》雜誌上聯合發表了一篇評論文章,談到為何要研究大量神經元的共同活動,並提出一種名為降維算法的機器學習算法,可以有效處理大量記錄數據,幫助解釋大量神經元的活動。

「神經科學中的一個核心原則就是,大量神經元一起工作才能產生腦功能。但大部分的標準分析法卻一次只能分析一兩個神經元,要想理解大量神經元是怎樣互相合作的,必須用一種先進的統計方法,如降維計算,才能解釋這種大尺度的神經記錄。」CMU電學與計算機工程和生物醫學工程副教授拜倫·餘說。

降維算法是將數據由高維減到低維,用來揭示數據的本質低維結構。在神經科學中,是用少數潛在或隱藏的變量來概括大量神經元的活動。比如在我們反覆思考時,或在頭腦中解決數學問題時,所有活動都是在腦內進行而不在外部世界,通過這些潛在變量可以跟蹤一個人的思路。它提供了一種深入的工具,讓人們能理解大腦是如何區分不同的氣味,在不確定的情況下做出決策,在沒有真實動作時考慮要移動哪個肢體。兩位作者認為,把降維算法作為一種標準分析方法,在人們比較研究健康大腦和異常大腦的活動方式時將會更容易,最終為腦損傷和腦功能紊亂帶來更好的治療方法。

哥倫比亞大學統計學副教授約翰·康寧漢姆說:「科學研究的一個主要目標就是用簡單的術語解釋複雜的現象。傳統的神經科學家一直在尋找簡化單個神經元的方法,但他們發現,神經元的活動模式具有變化的特徵,一次只檢查一個神經元是很難理解這些活動的。降維算法為我們提供了一種涵蓋單個神經元的變化的方法,為神經元之間的彼此互動找到簡單的解釋。」

研究人員還指出,雖然在神經科學中降維算法還相對較新,但已顯出光明前景。隨著神經記錄技術的發展和美國腦計劃的展開,大數據會變得更大,降維算法可能成為一種必不可少的數據處理方法。(來源:科技日報 常麗君)

 

 

 

特別聲明:本文轉載僅僅是出於傳播信息的需要,並不意味著代表本網站觀點或證實其內容的真實性;如其他媒體、網站或個人從本網站轉載使用,須保留本網站註明的「來源」,並自負版權等法律責任;作者如果不希望被轉載或者聯繫轉載稿費等事宜,請與我們接洽。

相關焦點

  • 機器學習之sklearn中的降維算法
    PCA與SVDsklearn中降維算法都被包括在模塊decomposition中,這個模塊本質是一個矩陣分解模塊。在過去的十年中,如果要討論算法進步的先鋒,矩陣分解可以說是獨樹一幟。矩陣分解可以用在降維,深度學習,聚類分析,數據預處理,低緯度特徵學習,推薦系統,大數據分析等領域。
  • 哈工大碩士生用 Python 實現了 11 種經典數據降維算法,原始碼庫已...
    「維數災難」;而數據降維就可以實現:使得數據集更易使用確保變量之間彼此獨立降低算法計算運算成本去除噪音一旦我們能夠正確處理這些信息,正確有效地進行降維,這將大大有助於減少計算量,進而提高機器運作效率。而
  • t-SNE:可視化效果最好的降維算法
    降維 1D,2D和3D數據可以可視化。但是在數據科學領域並不總是能夠處理一個小於或等於3維的數據集,我們肯定會遇到使用高維數據的情況。
  • 數據分析領域中最為人稱道的七種降維方法
    近來由於數據記錄和屬性規模的急劇增長,大數據處理平臺和並行數據分析算法也隨之出現。於此同時,這也推動了數據降維處理的應用。實際上,數據量有時過猶不及。有時在數據分析應用中大量的數據反而會產生更壞的性能。最新的一個例子是採用 2009 KDD Challenge 大數據集來預測客戶流失量。
  • 哈工大碩士生用Python實現11種經典數據降維算法,原始碼庫已開放
    雷鋒網 AI 開發者按:網上關於各種降維算法的資料參差不齊,同時大部分不提供原始碼。這裡有個 GitHub 項目整理了使用 Python 實現了 11 種經典的數據抽取(數據降維)算法,包括:PCA、LDA、MDS、LLE、TSNE 等,並附有相關資料、展示效果;非常適合機器學習初學者和剛剛入坑數據挖掘的小夥伴。為什麼要進行數據降維?
  • 神經網絡算法原理_神經網絡算法的應用_神經網絡算法實例說明
    神經網絡是一種模擬人腦結構的算法模型。其原理就在於將信息分布式存儲和並行協同處理。雖然每個單元的功能非常簡單,但大量單元構成的網絡系統就能實現非常複雜的數據計算,並且還是一個高度複雜的非線性動力學習系統。   神經網絡的結構更接近於人腦,具有大規模並行、分布式存儲和處理、自組織、自適應和自學能力。
  • 陳陟原:數據降維與可視化| AI 研習社第 53 期猿桌會
    我們可以從不同的角度入手進行不同的分類,主要分類方法有:根據數據的特性可以劃分為線性降維和非線性降維;根據是否考慮和利用數據的監督信息可以劃分為無監督降維、有監督降維和半監督降維;根據保持數據的結構可以劃分為全局保持降維、局部保持降維和全局與局部保持一致降維等等。
  • 數據科學家應該知道的頂級機器學習算法
    示例算法包括邏輯回歸和反向傳播神經網絡。無監督學習在此無監督機器學習中,輸入數據未標記並且沒有已知結果。我們必須通過推導輸入數據中存在的結構來準備模型。這可能是提取一般規則。可以通過數學過程來減少冗餘。示例問題包括聚類,降維和關聯規則學習。示例算法包括Apriori算法和k-Means。半監督學習輸入數據是帶標籤和未帶標籤的示例的混合。存在期望的預測問題。
  • 深度學習:神經網絡算法的昨天、今天和明天
    反向傳播算法模擬的正是大腦的反饋機制。之後的1994年,計算機科學家Yann LeCun在Geoffrey Hinton組內做博士後期間,結合神經認知機和反向傳播算法,提出了用於識別手寫郵政編碼的卷積神經網絡LeNet,獲得了99%的自動識別率,並且可以處理幾乎任意的手寫形式。這一算法在當時取得了巨大的成功,並被應用於美國郵政系統中。三、深度學習的爆發儘管如此,深度學習並沒有因此而熱門。
  • 擁有「嗅覺」 的新神經算法晶片
    神經擬態計算可以大幅度提升數據處理能力和機器學習能力,更重要的是,神經擬態晶片比傳統晶片的能耗要低得多。神經擬態計算是英特爾為應對計算領域非結構化、有噪聲數據日益增加等挑戰而研發的新的計算機架構。應用神經科學的最新見解,來創造作用方式更類似於人腦的晶片而非傳統計算機的晶片。神經擬態系統在硬體層面上複製了神經元組織、通信和學習方式。
  • 人工智慧之ICA算法
    常見的方法:InfoMax方法(用神經網絡使信息最大化),FastICA方法(固定點算法,尋求X分量在W上投影(W^t)*X)的非高斯最大化。  3、Fast ICA算法思路:  思路:屬於探查性投影追蹤  目的:輸入球化數據z,經過正交陣U處理,輸出Y=Uz  1)輸入球化數據z,經過正交陣某一行向量ui處理(投影),提取出某一獨立分量yi。  2)將此分量除去,按次序依次提取下去,得到所有的yi ,以及ui。
  • 算法原理:大數據處理的分治思想!
    引言MapReduce(分治算法的應用) 是 Google 大數據處理的三駕馬車之一,另外兩個是 GFS 和 Bigtable。它在倒排索引、PageRank 計算、網頁分析等搜尋引擎相關的技術中都有大量的應用。儘管開發一個MapReduce看起來很高深,感覺遙不可及。
  • 柯潔未能勝天半子 李彥宏說的降維打擊來臨了嗎?
    、以前的人工智慧,主要依賴於算法。深藍能贏卡斯珀洛夫是因為深藍把西洋棋的每一步都計算清楚,而西洋棋也好,中國象棋也好,棋盤比較小,規則比較簡單,計算機靠算法硬算是能算清楚的。早在深藍時代,人們就直到圍棋將是棋類中未來最難被攻克的堡壘,因為圍棋棋盤大,步數多,要窮舉的話需要的運算量太大,深藍時代的計算機不行,再按照摩爾定律發展一百年的計算機還是不行。
  • 10大機器學習算法,看懂你就是數據科學家
    想成為數據科學家?你得是個博聞強識,又對新鮮事物保持好奇心的人。正因為如此,數據科學家會掌握幾乎所有的常見算法,並精通其中一門,這樣可以快速適應新領域的問題。今天我們就來聊聊,每一位數據科技家都應該了解的10大機器學習算法。
  • 自編碼器數據降維實踐
    此前,我介紹過一種基於自動編碼器的降維方法 。然而,在那一段時間裡,我專注於如何使用自動編碼作為預測器,而現在我想把它們看作是一種降維技術。這篇文章的目的是解釋一下自動編碼器是如何工作的。它是從將原始數據壓縮成一個忽略噪聲的短代碼開始的。然後,該算法對該代碼進行解壓縮,以生成儘可能接近原始輸入的圖像。
  • 算法之「算法」:所有機器學習算法都可以表示為神經網絡
    我們可以說,神經網絡是對機器學習的普遍概括,而不是僅僅一次嘗試。與其說神經網絡是簡單的算法,不如說是框架和概念,這是顯而易見的,因為在構建神經網絡時有很大的自由度——比如對於隱藏層&節點個數、激活函數、優化器、損失函數、網絡類型(卷積神經網絡、循環神經網絡等)以及特殊層(批歸一化、隨機失活等)。
  • 五分鐘了解機器學習十大算法
    這種算法最常用的技術是最小二乘法(Least of squares)。這個方法計算出最佳擬合線,以使得與直線上每個數據點的垂直距離最小。總距離是所有數據點的垂直距離(綠線)的平方和。其思想是通過最小化這個平方誤差或距離來擬合模型。例如,簡單線性回歸,它有一個自變量(x 軸)和一個因變量(y 軸)2.
  • 戴瓊海:深度學習遭遇瓶頸,全腦觀測啟發下一代AI算法
    不僅如此,光電智能晶片也能應用於新基建,如工業網際網路、計算機視覺、大數據分析,光通訊等。算力的提升,也意味著我們將突破人工智慧的現有制約。1、魯棒性差比方說,我們在檢測汽車時使用深度學習算法,汽車的後視鏡亮起尾燈,我們可以通過提升亮度來檢測汽車,但檢測失敗。輸入的小變化引起輸出的大變化,魯棒性較差。2、遷移性差深度學習依賴大規模數據集,並且在這些數據集裡面,通常極端場景不足,在特殊場景和新場景的遷移性比較差。
  • 常見機器學習算法優缺點比較
    對於第一種情況,也可以先對數據進行降維,然後使用非線性核,這也是一種方法。  7.人工神經網絡的優缺點  人工神經網絡的優點:  · 分類的準確度高;  · 並行分布處理能力強,分布存儲及學習能力強,  · 對噪聲神經有較強的魯棒性和容錯能力
  • 淺談ICA算法的概念、本質和流程
    常見的方法:InfoMax方法(用神經網絡使信息最大化),FastICA方法(固定點算法,尋求X分量在W上投影(W^t)*X)的非高斯最大化。 3、Fast ICA算法思路: 思路:屬於探查性投影追蹤 目的:輸入球化數據z,經過正交陣U處理,輸出Y=Uz 1)輸入球化數據z,經過正交陣某一行向量ui處理(投影),提取出某一獨立分量yi。 2)將此分量除去,按次序依次提取下去,得到所有的yi ,以及ui。