像計算機一樣學習——如何將知識「編碼」到我們的大腦當中

2020-12-14 小單個人成長體系

這是單華偉的第一百八十二篇原創文章(2.0)

我們如何『 儲存 』信息

人類對任何事情的記憶,都會經過大腦獲取信息(編碼,encoding)、 保存信息(存儲,storage)和日後讀取信息(提取,retrieval)這樣一個過程。

當代心理學將記憶的『 儲存 』分為兩個階段:短時記憶和長時間記憶。

短時間內,人的大腦只能同時記住 4 - 7 個信息組塊,進入這個階段的信息也就進入了所謂的『 短時記憶 』,這個階段的信息只能維持 30 秒左右的時間,只有通過不斷的重複來增強記憶。

比如現在給你一段隨機數字: 328030524 ,你只能通過不斷重複來記憶,超過 30 秒沒有重複這個信息,你很可能就把這段數字忘掉。

而如果能對這段數字進行深層次的加工,比如把它同你的家庭住址,或者某個人的生日聯繫起來(3棟28樓03號,生日05月24日),這段數字就可能進入你的長期記憶。

將信息進行『 編碼 』的方法

前面講到,人類對任何事情的記憶,都要經過大腦的編碼,而所謂『 編碼 』,就是將新信息和自己的基本認知進行縫合,把328030524這串數字賦予意義,就是典型一個編碼方法。而具體來說,我們還有以下五種編碼方法可用:

01 形象化

把元素周期表上各元素的位置關係想像成鄰居關係,把三角函數的變化和其在直角坐標系中的圖像結合起來……我們在中學時期其實就已經使用了不少的形象化的工具,只是很多人在經歷過高考之後,便從沒有有意識的再去運用這種方法。

對任何的知識的學習,都可以動用形象化方法,比如將攝影中的曝光三要素:光圈、快門、ISO,分別想像成:水龍頭大小、水龍頭打開的時間、水的密度;再比如,用「手型」,也就是手指在吉他指板上的位置,來理解吉他上的音階的排列……

上面提到的四個形象化的例子,都是被很多人使用,「公開的秘密」,只要你留心看過的書,認聽課,都能發現不少這樣的好方法。但更進一步,如果你能發揮一些想像力,用自己的形象化的方法來理解更多的知識,才是更棒的事情。

02 動用五官

這和『 形象化 』的方法有一點類似,不同的是,它更強調你的『 五官感知 』,學習攝影的構圖,你能不能想像如何用一個有長寬邊界的二維平面去感受世界?在學習生物學的時候,你是否能想像那些被染色的,生動活潑的細胞?……

加入這些想像,能讓你在每次看到這些文字,運用這些知識時仿佛有身臨其境的感覺 —— 如此一來,『 編碼 』會順利很多。

03 個人的記憶和體驗

再進一步,你可以將個人的記憶或體驗與自己學習的知識結合起來,童年的一次惡作劇可能成為記憶一個歷史知識點的模型,喜歡的影視劇和遊戲可能幫助自己用更幽默的方式記憶和理解一個個概念……

總之,深入的挖掘那些深刻的記憶,然後把它和自己所學的東西結合起來。

04 把學習的場景也作為記憶的一部分構建起來

在一次實驗中,研究人員讓三組人分別在安靜的教室、有爵士樂的教室、有古典樂的教室學習一組單詞表,考試的結果顯示:在有爵士樂的教室學習,並在有爵士樂的教室考試的學生和在有古典樂的教室學習,並在有古典樂的教室考試的學生成績是最高的。(Steven M. Smith,1985)

心理學家對此的解釋是,音樂給了人「更生動的」回憶,如果在考試,也就是在提取信息時播放相同的音樂,能夠刺激記憶提取。

當然了,我們不可能在考試的時候播放音樂,那到底怎麼利用這個方法呢?

凱裡在他的《如何學習》一書中講了自己的故事:讀大學時,他深夜還在教學樓複習,和一位退休的物理學教授搭上話,兩個人不時有一些交流,而在那個特殊的場景下教授講的所有東西,他都記得清清楚楚,每次都能通過回想那生動的場面回憶起那些知識。

所以,如果能在學習過程中適當構建一些生動的場景,多和老師同學在不同的場景下討論問題,也能很好的提高對知識的記憶。

05 深入了解其背景知識,建立一個個組塊和層次

先一起來看看黑格爾的《小邏輯》中的一段話:「對於思辨意義的概念與通常所謂概念必須加以區別,認為概念永不能把握無限的說法之所以被人們重述了千百遍,直至成為一個深入人心的成見,就是由於人們只知道狹義的概念,而不知道思辨意義的概念。」

這當中的『 思辨意義的概念 』,任你如何形象化,如果結合個人體驗,都是難以理解的;但如果你知道康德的基本立場:我們用先天存在的範疇理解世界,你便能明白這句話是黑格爾在針對康德哲學做反思。

具體解釋一下:康德認為,人類用先天存在的範疇理解世界,一切事物都需要先掉進人類認知的「染缸」,被一系列先天範疇規定之後,才能被認知。

這實際上是一種『 不可知論 』—— 人只能藉助一系列工具去「理解世界」,而不是「直接認識和經驗世界」,所謂「真實」的世界是如何永遠不可能被我們認識到。

而黑格爾對康德的觀點的反思,就是區別了所謂『 狹義的概念 』和『 思辨意義的概念 』;可以看到,他顯然是把康德所說的『 先天範疇 』劃為『 狹義的概念 』,在黑格爾看來,康德用一個個有限的認知概念作為理解世界的基礎,自然會得出「概念永遠把握無限」的說法。

現在,再回過頭看看黑格爾那句話,是不是明朗了許多?

學習任何一個學科知識,任何一個概念,只要你能夠深入挖掘它和其他知識的聯繫,便能深入理解,最終建立起一個個組塊和系統,記憶知識,也就成了順理成章的事情。

後記

如果你想了解更多學習方法、閱讀方法等工具乾貨,可以來看看我的『 個人成長體系03:深度閱讀與學習 』專欄

我是單華偉,專欄作家,全網同名(均為「單華偉」或「小單個人成長體系」),我主要寫長文,偶爾寫點短篇和時評,我寫的文章都會不斷修改更新,加上(2.0)或者(3.0)之類的後綴重新發表,這是我的第一百八十一篇原創文章(各平臺更新不同,所以我發文不一定是按順序來的),所有從別處參考的內容我都會在文末標出,沒有標註的部分,那便是個人所思所想,歡迎轉發和分享我的文章。對文章中的內容有任何疑問,希望得到解答和幫助,歡迎在評論區留言或私信與我交流。

本文受維權騎士版權保護,任何包括但不限於圖文、音視頻形式的侵權行為將被追責。如果您看到疑似抄襲我文章的帳號,煩請幫忙舉報,感激不盡。商業轉載與合作請私信聯繫。

參考書目:

(美)本尼迪克特·凱裡 著;玉冰譯.如何學習[M].杭州:浙江人民出版社,2019.

References:

Steven M. Smith, 「Background Music and Context-Dependent Memory,」 American Journal of Psychology, Vol. 98, No. 4, Winter 1985, 591–603.

相關焦點

  • 「思維圖」讀書多≠懂得多,如何讓大腦真正高效閱讀、學習?
    信息知識的不需要多,關鍵在於能吸收、內化的底層知識(心理學、認知行為學、神經科學等元理論)有多少。所以今天分享的就是我上完L先生智識營第一課的「高效閱讀、學習法」後,對於信息接受和知識獲取的延伸思考、更多領域應用。
  • 如何把存儲器做到CPU裡?我們向大腦找答案|人工智慧|深度學習|腦...
    他分享了如何來設計未來的神經形態計算機。首先必須具備異構的網絡結構,其次包含時序動力學的神經元非線性,要構建基於突觸可塑性的信用分配算法不僅實現模式識別這樣深度學習裡面已經非常成功應用的各種算法,而且要實現學習-記憶融合的認知計算,我們未來把大腦搬進機箱讓它實現知識的表達、知識的學習、認知以及環境的交互。
  • 心理學:如何使用大腦結構,合理消除「沒有自信」的方法
    本文將從腦科學的角度向你們展示如何直接影響你們的潛意識。到目前為止,你可能為「沒有自信」而煩惱,或許你會依賴於各種書店裡充斥的自我提升類的書,但今天請全部扔掉。即使不依賴那樣的東西,只要知道腦中過濾器的切換方法,對自然和自信的看法就會發生變化,從明天開始就可以度過完全不同的人生。
  • 人工智慧、機器學習、深度學習的區別在哪?
    早在1956年夏天的會議上,人工智慧先驅者的夢想是建立一個由新興計算機啟用的複雜的機器,具有與人的智能相似的特徵。這是我們認為的「強人工智慧」(General AI),而神話般的機器則會擁有我們所有的感知,甚至更多,並且像人類一樣思考。你已經在電影中見過這些機器無休止地運動,像朋友如C-3PO,或者敵人如終結者。一般的人工智慧機器仍然只是出現在電影和科幻小說中。
  • 像佛陀一樣快樂:愛和智慧的大腦奧秘
    當我們升起負面情緒,大腦立刻發出紅色警訊,交感神經系統像探照燈瞬間發亮,壓力荷爾蒙衝刷至血液中,全身都進入備戰狀態;而當我們快樂、放鬆、感受到愛和喜悅時,副交感神經將被喚醒,多巴胺及親密荷爾蒙大量分泌,平靜自在如漣漪般擴散,心靈、身體及大腦也得到療愈和釋放。
  • 以史為鑑:從數字計算機到知識圖譜的這 60 多年
    此外,我們將每個時代劃分為「數據」,「知識」和「數據+知識」來組織相關的思想、技術和系統。 我們以幾十年為一個周期,但我們也意識到,周期之間的界限實際上較為模糊[4]。文中參考的相關論文,本文都會一一列出。
  • 《機器學習》作者Tom Mitchell:人工智慧如何向人類大腦學習 |...
    不同的情況下,大腦各個區會域進行相應的振蕩,因此可以在不同的時間點進行觀測,當人們在社交的時候,大腦當中管社交的部分會得到同步的激活,不過有自閉症的人和正常人的狀況也不一樣。總之,無論是人工智慧還是腦科學,都取得了令人矚目的巨大進展。
  • 李飛飛對話頂級神經學家:大腦做「微積分」,最高效GPU但很浪費
    第一個領域都是些理論學家:這幫人試圖理論化和提取關於大腦如何計算,大腦如何表現,大腦如何產生行動的一般原則。第二個領域都是信奉神經網絡的建模師:那些真正懂得如何做深度卷積網絡,懂得如何做循環神經網絡,並且能夠將簡單問題進行建模的人。
  • 大腦也在用分布式強化學習?DeepMind新研究登上《Nature》
    這一發現驗證了分布式強化學習的潛力,同時也使得 DeepMind 的研究人員越發堅信,「現在的 AI 研究正走在正確的道路上」。多巴胺是人們所熟悉的大腦快樂信號。如果事情的進展好於預期,大腦釋放的多巴胺也會增多。在人腦中存在獎勵路徑,這些路徑控制我們對愉悅事件的反應,並通過釋放多巴胺的神經元進行介導。
  • 重磅| 谷歌大腦養成記:從識別貓到突破性機器翻譯
    當時,我們像往常一樣坐在一間帶有白板的會議室,他在白板上密密麻麻寫上谷歌大腦的時間軸,以及與近期神經網絡的歷史拐點的關係。「現在計算機有了眼睛,我們可以圍繞現有的能力建造眼睛從而理解不同的難題。」他們建造的這些能力看起來很簡單,但影響很大。圖:Geoffrey Hinton2.
  • 重啟人工智慧:當深度學習遇上知識圖譜
    構建塊 3:我們需要能夠對這些事情進行推理。假設我們對物理對象及其在世界中的位置有所了解,例如,杯子。這個杯子裡有鉛筆。然後,人工智慧系統還需要能夠意識到,如果我們在杯底挖一個洞,鉛筆就會掉出來。人類一直進行這樣的推理,但是目前的人工智慧系統卻無法做到這點。構建塊 4:我們需要認知模型:我們大腦內部或計算機內部的事物,這些事物可以告訴我們世界上所見的實體之間的關係。
  • 一個黑房間能劫持你的大腦嗎?| 預測性編碼
    現在,讓我們將人類心智抽象為一系列從接受信息到作出反饋的過程,如果你願意,也可以將這些過程稱為功能或者算法。那麼,是否存在一個更基礎的理論,能夠解釋和指導心智過程所涉及的一切算法呢?如果我們能夠發現這種「大一統理論」,我們無疑會更接近人類智能的本質和起源。
  • 人工智慧在瘋狂學習,你卻在刷朋友圈
    (具體技術介紹大家可以自行百度) 總之,計算機可以自我學習了,而一旦計算機掌握了學習能力,它就能像人類一樣,能夠自我成長,加上計算機擁有人類不可比擬的運算速度,它們正在以我們不能理解的方式指數級進化… 而比這個更可怕的是,它們已經那麼厲害了,還在不斷的輸入新的數據進行學習,而你又有多久沒好好學習新知識了?
  • 解讀神經擬態計算:讓機器像大腦一樣"思考"
    這就像我們上小學的時候,大多數情況下是老師在教我們識字一樣,老師教的是什麼,我們就學什麼,很少去自己進行思考性的拓展學習。現階段的深度學習方法、或更大一個範疇的機器學習很難達成這樣的結果。因此,需要讓機器在某種程度上具備接近自然智能、或具備真正自然智能的新的方法,來推動人工智慧在「智慧」層面的發展。而目前,神經擬態計算就是這樣一種神奇的技術。·如何讓機器像人腦一樣工作  要想了解神經擬態計算,那麼首先要了解自然智能。
  • NLP像人腦一樣工作?CMU、MIT三篇論文詳解機器大腦範疇下NLP關係
    談到應用於自然語言處理任務中的各種人工智慧模型,人們總是希望它們能夠在完成文本理解的任務上達到跟人類一樣的水平。那麼,想要讓模型像人腦一樣工作,模型能不能運用像人類的大腦中一樣的表徵呢?Wehbe 研究小組重點關注的就是使用大腦中的活動記錄來解釋一種人工智慧模型---BERT 的表示,以及試圖找到改進它們的啟發式方法,甚至改變網絡學習到的權重,使它們能夠像大腦一樣工作。
  • 「九章」量子計算機糾纏了嗎?
    從媒體和大眾的興奮度來看,納稅人對「九章」的期望值甚至高於「兩彈一星」,大家真心希望「九章」能像「兩彈一星」一樣,成為保中華大地百年平安的鎮國之寶、助中華民族偉大復興的國之重器。 根據公開的信息,僅僅為了回答SCIENCE審稿人的一個小問題,「九章」團隊就多花了40多萬美元,「九章」之文到底燒了多少錢?估計用一字萬金來形容也不為過。
  • 格雷碼編碼+解碼+實現(Python)
    不論你是否理解,格雷碼的主要優點就在於可以減小解碼過程中的錯誤率,當然它依然有二值碼一樣的缺點,主要在於在選取位數較多的時候,最後幾幅圖的格雷碼條紋會非常細,不容易分辨,因而我們通常只選取4位格雷碼進行編碼。這樣的處理精度並不高,這也是後面我們結合相移法來進行編碼、解碼的主要原因。
  • NLP能否像人腦一樣工作?CMU、MIT三篇論文詳解機器和大腦範疇下NLP...
    那麼,想要讓模型像人腦一樣工作,模型能不能運用像人類的大腦中一樣的表徵呢?Wehbe 研究小組重點關注的就是使用大腦中的活動記錄來解釋一種人工智慧模型---BERT 的表示,以及試圖找到改進它們的啟發式方法,甚至改變網絡學習到的權重,使它們能夠像大腦一樣工作。
  • 澳門大學陳俊龍:顛覆縱向的「深度」學習,寬度學習系統如何用橫向...
    陳俊龍教授聯想到自己往期所做的相關工作,開始規劃設計一個「又快又準的算法和結構」。BLS 最重要的特點在於它的單隱層結構,具有兩個重要的優勢,一個是「橫向擴展」,另一個則為「增量學習」。與深度神經網絡不同之處在於,BLS 不採用深度的結構,基於單隱層神經網絡而構建,可以用「易懂的數學推導來做增量學習」。
  • 從「RPA+AI」到 RPA「像人一樣思考」:來也科技發布新產品 UiBot...
    2019年6月,AI公司「來也」宣布完成與RPA創業公司「奧森」合併,強勢進入智能流程自動化市場。新「來也科技」提出的「RPA+AI」概念目前已成海內外行業共識。在此影響下,大部分RPA公司都開始強調RPA與AI的結合,以應用商店、接口打通等方式將OCR、NLP、機器學習等能力引入到RPA生態中。