想要更進一步,AI 需要向嬰兒學習「人類本能」

2021-01-16 36氪

編者按:深度學習讓人工智慧在個別應用上取得了飛躍。但是目前靠海量數據+機器學習的AI解決方案存在哪些限制?為什麼稍微改變一下環境現有的AI系統就無法適應了呢?有一個派別的專家相信,這是因為AI缺乏常識。如果給AI注入人類的一些基本本能,也許做出通用人工智慧(AGI)就不是遙不可及。不過開發AI系統究竟需要多少先天知識呢? AGI應該遊走在純粹學習與純粹直覺之間的什麼位置?《科學》雜誌的一篇文章對此進行了分析。

這是2月份的一個周六的早上,Chloe,一位身著格子衫緊身褲充滿好奇心的小孩,正在探究一個新玩具的可能性。她的父親Gary Marcus是紐約大學的一位發展認知科學家,他帶了幾條膠帶回家打算把樂高積木粘在上面。精通樂高的Chole給迷住了。但她總是往上粘。她會利用膠帶往旁邊或者向下粘嗎?Marcus建議她從桌子的一頭開始粘起。10分鐘後,Chole開始把膠帶往牆上粘。Chole故作鎮定地跟Chole說:「我們最好在媽媽回來前做完。她不會高興的。」(劇透:牆漆遭殃了。)

Marcus的努力隱含著一項實驗。Chole能不能把她學到的有關一項活動的東西應用到新的環境下呢?在幾分鐘之內,她就把一個樂高雕塑粘上了牆上然後宣布:「爸爸,我做到了!」在適應性方面,Chole表現出了她的常識,一種計算機科學家迄今仍在設法複製而不得的智能。Marcus認為人工智慧領域(AI)應該可以從像她這樣的年輕思想家那裡好好地取取經。

嬰兒天生就具備了一些本能,正是這些本能幫助我們學習常識,而AI迄今為止仍搞不懂常識這個東西。

機器學習的研究人員認為,經過海量數據訓練的計算機可以學習任何事情——包括常識——而且需要很少的編程規則(如果說不可能不需要的話)。Marcus說,「在我看來,這些專家存在盲點。這是一個社會學上的東西,是物理妒忌的一種形式,大家都以為越簡單越好。」他說計算機科學家忽視了一點:認知科學和發展心理學數十年的工作表明,人類是具備先天能力的——在出生或者童年早期就具備了編程好的本能——從而幫助我們進行靈活的抽象的思考,就像Chole那樣。他認為AI研究人員應該把那樣的本能植入到程序裡面。

但許多計算機科學家正沉浸在機器學習的成功之中,他們渴望探索一個幼稚的AI能做的事情的極限是什麼。俄勒岡州立大學計算機科學家Thomas Dietterich說:「我認為大多數搞機器學習的人對於納入大量背景知識都有著方法論的偏見,因為從某種程度上來說我們視之為一種失敗。」他補充說,此外,計算機科學家還非常欣賞簡潔性,討厭調試複雜代碼。MIT心理學家Josh Tenenbaum 說,Facebook和Google這樣的大公司是將AI朝那個方向推進的另一個因素。那些公司最感興趣的是狹義定義的近期問題,比如web搜索和人臉識別,這些問題白紙一張的AI系統可以用海量數據加以訓練並且解決得出奇的好。

但從更長期來看,計算機科學家預計AI要承接棘手得多的任務,而那些任務需要的是靈活性和常識。他們想創建可解釋新聞的聊天機器人,能應付混亂的城市交通的無人車,會照料老人的機器人。Tenenbaum說:「如果我們想開發像C-3PO那樣可以在完全人類的世界裡互動的機器人,就得用通用得多的設置去解決所有這些問題。」

一些計算機科學家已經在嘗試了。今年2月,MIT推出了Intelligence Quest,這項目前已經募集到了數百萬美元的研究計劃打算從工程的角度去理解人類智能。研究人員希望,此類努力能夠得到半純機器學習半純本能的AI。這種AI將遵循某些嵌入的規則自舉,但是此後會不斷學習。Tenenbaum說:「從某種意義來說這就像由來已久的先天後天之爭,只不過現在變成了工程的語境。」

探索的目的之一是想發現嬰兒知道什麼以及什麼時候知道的——然後再把這些經驗用到機器身上。艾倫人工智慧研究所(AI2)的CEO Oren Etzioni說,但這需要時間。AI2最近宣布要投入1.25億美元用於開發和測試AI的常識。Etzioni說:「我們願意開發人類大腦天生的表徵結構,但我們不會理解大腦是如何處理語言、推理以及知識的。」

Tenenbaum說,到頭來「我們是在嘗試著將AI的最古老夢想之一變成現實:也就是開發能夠像人一樣發展出智能的機器——像嬰兒一樣開始,像小孩一樣學習。」

過去幾年,AI已經展示出它可以翻譯語音、診斷癌症,並且在撲克遊戲中擊敗人類。但每一場勝利背後都會有一個大錯。圖像識別算法現在認狗的能力比你還強,但有時候卻會錯誤地把吉娃娃認成藍莓松糕。AI玩《太空入侵者》等經典Atari視頻遊戲有著超人的技藝,但當你把外星人全拿掉只留下一個時,AI卻令人費解地不知道該怎麼玩了。

機器學習(AI的一種)要對這些成功和失敗負責。寬泛而言,AI已經從依賴許多編程好的規則的軟體(所謂的有效的老式人工智慧,GOFAI)轉移到依靠試錯的系統。得益於強大的計算機、大數據以及神經網絡這種算法的進展,機器學習已經實現騰飛。那些網絡是簡單計算元素的集合,是對大腦神經元的鬆散建模,在消化吸收訓練數據時會建立或強或弱的連結。

2017年,AlphaGo擊敗了圍棋世界冠軍柯潔,這是機器學習的一項勝利。

Google DeepMind的Alpha程序把深度學習推上了神壇的位置。每次去掉規則,軟體似乎都得到改善。2016年,AlphaGo擊敗了一位圍棋的世界冠軍。次年,AlphaGo Zero在得到的指導少得多的情況下輕易擊敗了AlphaGo。數月之後,一個更加簡單的系統AlphaZero又擊敗了AlphaGo Zero——而且還掌握了西洋棋。1997年,一個經典的、基於規則的AI——IBM的深藍已經擊敗了西洋棋世界冠軍卡斯帕羅夫。不過事實表明,真正精通西洋棋的訣竅是知道例外的例外的例外——那是最好通過經驗收集到的信息。AlphaZero靠著自己跟自己下棋就能打敗目前最好的西洋棋程序深藍以及每一位人類世界冠軍。

但類似Alpha這樣的系統顯然不是在吸取能導致常識的經驗。如果是在21 x 21而不是標準的19 x 19棋盤上下圍棋的話,AI就得重新學習這種遊戲。1990年代末,Marcus訓練了一個網絡接收輸入數字然後再吐出來——這應該是能想像到的最簡單的任務了。但是他只是用偶數來對網絡進行訓練。在用奇數進行測試時,網絡不知所措了。它沒法像Chole那樣開始側向造樂高時將一個領域學到的東西應用到另一個領域。

這個問題的答案不是再回到基於規則的GOFAI上。小孩認識狗靠的不是類似「如果腿數=4,且有尾巴=真,且大小>貓」這樣的顯式規則。識別要更微妙一點——3條腿的吉娃娃逃不過3歲小孩的眼睛。人類不是一張白紙,也不是基本固定的。相反,有跡象表明我們有幫助我們學習和推理世界的傾向。自然並沒有賦予我們一個技能庫,只是提供了搭建這麼一個庫的腳手架。

哈佛大學心理學家Elizabeth Spelke認為,我們至少有4種「核心知識」系統賦予了我們理解對象、動作、數字以及空間的先發優勢。比方說,我們是具有直覺的物理學家,能夠迅速理解對象及其交互。根據一項研究,僅3天大的嬰兒就能把部分隱藏的一根棍子的兩頭視為一個實體的一部分——這是我們的大腦也許有感知連貫的對象的傾向。我們還是具有直覺的心理學家。在2017年《科學》雜誌的一項研究中,Spelke實驗室的研究生Shari Liu發現,10個月大的嬰兒就能推斷出當一個動畫角色爬上更高的山抵達一種形狀而不是另一種時,該角色必定會選擇前者(編者註:也就是說嬰兒知道付出越多回報越大這個常識邏輯)。Marcus已經表明了7個月大的嬰兒能學習規則;他們在聽到3個單詞組成的句子(「wo fe fe」)打破了之前聽到的句子(「ga ti ga」)的語法模式時會表現出驚訝。據後來的一項研究,出生才一天的嬰兒也顯示出了類似的行為。

Marcus已經構建出10項他認為應該植入到AI之中的人類本能最簡清單,其中包括了因果概念,成本效益分析,類型與實例(狗與我的狗)等。去年10月,他直面紐約大學計算機科學家,Facebook的首席AI科學家Yann LeCun,在紐約大學的一場有關AI是否需要「更直覺的機制」的辯論中為他的清單辯護。為了證明自己對直覺的主張,Marcus展示了一張野山羊嬰兒在懸崖峭壁下山的幻燈片。他說:「它們沒有時間去試錯學習100萬次。如果它們犯了錯,那將是致命的。」

不過LeCun並不同意眾多發展心理學家的看法,他認為嬰兒也許在數日之內就學會了那種能力,如果是這樣的話,機器學習算法也能如此。他的理念源自經驗。研究圖像識別的他在1980年代開始提出用手工編碼的算法去識別圖像裡面的特徵將會變得沒有必要。30年後他的說法得到了證實。批評者問他:「如果可以開發出來的時候為什麼要去學習?」他的回答是:開發是困難的,如果你沒有完全理解一個東西的機制的話,你構思的規則有可能是錯的。

不過Marcus指出,LeCun本人已經將這10項關鍵本能中的一種嵌入到了他的圖像識別算法裡面:平移不變性,不管出現在視野的任何地方都能識別對象的能力。平移不變性是卷積神經網絡(convnets)背後的原則,這是LeCun最出名的成就。過去5年卷積神經網絡已經成為圖像識別等AI應用的核心,開啟了目前這波深度學習的狂熱。

LeCun說,在有了更好的通用學習機制之後,平移不變性最終也會無中生有。他說:「那些東西裡面很多都會作為學習世界運作方式的結果而自發出現。」多倫多大學的深度學習先驅Geoffrey Hinton對此表示同意。他說:「相信強大的先天知識的大多數人都有一個沒有根據的理念,那就是認為從零開始學習數十億個參數是很難的。我認為最近深度學習取得的進展已經表明這其實簡單得出奇。」

應該把AI放在一頭是純粹學習一頭是純粹直覺的中間什麼位置?這場爭論將會繼續。但是這個問題忽視一個更加實際的擔憂:如何設計和開發這樣一種混合機器。尚不清楚如何將機器學習極其數十億神經網絡參數跟規則和邏輯結合到一起。同樣地,如何識別最重要的直覺並且靈活地對其進行編碼也不了了之。但這並不能阻止一些研究人員和公司為此展開嘗試。

經過一番裝飾之後,雪梨新南威爾斯大學的機器人實驗室看起來就像一個客廳跟廚房。計算機科學家Michael Thielscher解釋說,這個實驗室是一個家用機器人的試驗臺。他的團隊正在嘗試賦予一個有手有臉(屏幕)的豐田人類支持機器人(HSR)兩種類似人類的直覺。首先,他們希望對HSR進行編程,把挑戰分解為更小更容易的問題,就像一個人會將食譜解析成若干步驟一樣。其次,他們希望賦予機器人推理信念和目標,也就是人類對他人思想進行直覺思考的能力。如果一個人讓它取一個紅色的杯子,但它只能找到一個藍色杯子和一個紅色碟子時,HSR會如何響應呢?

到目前為止,他們的軟體展示出了一些類似人類的能力,包括取藍色杯子而不是紅色碟子的好感覺(編者註:形狀而不是顏色對目標更重要)。但是編進系統的規則數量超過了Thielscher的設想。他的團隊被迫告訴AI通常杯子要比紅色更重要。理想情況下,機器人應該具備社會本能迅速自行了解到人們的喜好。

其他研究人員正在致力於將嬰兒似乎天生具備的同樣一些直覺物理學注入到AI裡面。DeepMind的計算機科學家已經開發出所謂的交互式網絡。他們給AI納入了物理世界的一個假設:存在著離散對象,並且它們有著不同的交互。就像嬰兒能迅速將世界解釋成為互動的實體一樣,那些系統也很容易就能了解到對象的屬性和關係。他們的結果表明,交互式網絡預測下墜的帶狀物與在箱子內彈跳的球的行為要比一般神經網絡精確得多。

不同的思想:1)直覺——以IBM深藍為代表的基於規則的AI;2)人類;3)學習——機器學習AI

機器人軟體公司Vicarious的模式網絡把這個想法又推進了一步。那些系統也假設對象和交互的存在,但系統還推斷連接它們的因果關係。通過不斷學習,該公司的軟體可以像人一樣從想要的結果倒推出計劃來。(我想讓我的鼻子不癢;撓一下可能行。)研究人員將它們的方法用Atari的遊戲《打磚塊》跟最先進的神經網絡進行比較。由於這種模式網絡能夠學習因果關係——比如球無論速度如何在接觸到的時候都能敲掉磚塊——所以在遊戲改動時並不需要額外的訓練。你可以移動目標磚塊,讓玩家改成同時玩3個球,模式網絡仍然能玩得很溜。其他網絡就失敗了。

除了我們的天生能力以外,人類還受益於一個大多數AI都沒有的東西:身體。為了幫助軟體對世界進行推理,Vicarious對它進行了「具體化」從而使得軟體能夠探索虛擬的環境,就像嬰兒推倒一堆積木塊也許能了解到重力的一些東西了。今年2月,Vicarious展示了一個在二維場景下尋找有界區域的系統,方法是用一個微小的虛擬角色穿越區域。在探索過程中,系統了解到了包含的概念,從而幫助它比標準的圖像識別卷積神經網絡更快地弄清楚了新場景。概念——運用到很多情況下的知識——是常識的關鍵。Vicarious 聯合創始人Dileep George說:「在機器人學裡面,機器人能夠對新情況作出推理極其重要。」今年晚些時候,這家公司將在倉庫和工廠對其軟體進行試點,在打包和運送之前幫助機器人把東西撿起來、組裝然後上色。

最具挑戰性的任務之一是靈活地對直覺進行編碼,這樣AI才能應對一個未必遵守規則的混沌世界。比方說無人車沒有辦法指望其他司機會遵守交通規則。為了應對這些不可預測性,史丹福大學的心理學家兼計算機科學家Noah Goodman參與開發了概率程式語言(PPL)。他說這是一門把嚴格的計算機代碼結構與數學概率相結合的語言,正好呼應了人既遵循邏輯又允許不確定性的風格:如果草是溼的則有可能在下雨——但也可能是因為有人灑水了。關鍵是,PPL可以跟深度學習網絡結合來體現博學。在Uber工作的時候,Goodman等人發明了這樣一種「深度PPL」,名字叫做Pyro。這家共享乘車公司正在探索Pyro的應用,比如派遣司機以及在遇到施工及比賽日時的適應性路線規劃等問題。Goodman說PPL能推理的不僅是物理和物流,也包括如何跟人交流,應對棘手的表達形式,比如誇張、諷刺、挖苦等。

Chole也許到十幾歲之前都學不會挖苦,但很顯然她天生具備精通語言的本領。有一次在Marcus的公寓裡,她拿出一對被卡住的樂高積木。「爸爸,你能幫我untach(杜撰出來的attach的反義詞)這個嗎?」她的爸爸沒有糾正她杜撰的新詞就照辦了。單詞和想法就像樂高積木,部件很容易混合與匹配,並且渴望在世界裡加以檢驗。

在Chole試著在牆上搭積木之後,一個年級大點,稍微有經驗一點的智能系統也有了一次嘗試的機會:她5歲的哥哥,Alexander。他迅速搭起了一棟伸得更遠的樂高建築。Marcus說:「你可以從她的行為那裡找到他所做事情的根源。」在被問到時,Alexander估計了他搭的結構還可以搭多遠才會坍塌。按照Marcus的觀察,他的估計相當精準。「他不用試過1000萬次在牆上搭積木才學會蘋果結構的完整性。他根據自己對物理等的了解就能做出一些推斷了。」

對此Marcus顯然感到很自豪,原因不僅是因為他的子女的能力,也是因為他們支持了他關於我們如何了解世界的理論——以及AI應該如何學習的理論。玩完樂高積木之後,Chole和Alexander飛奔著撲向了父親的懷抱。當他抱著他們轉圈時,他們高興得尖叫起來,這又給了他們一次調整自己對物理的直覺,以及享受樂趣的機會。

原文連結:http://science.sciencemag.org/content/360/6391/845.full

編譯組出品。編輯:郝鵬程。

相關焦點

  • 倫理的跨越:動物是否會發善心養育人類的嬰兒?
    它們和人類已經很接近了,它們很可能能夠正常餵養一個人類嬰兒,而母猿的乳汁也可能足夠接近,足以滋養嬰兒。他們足夠聰明,能夠想出如何維持和與人類嬰兒溝通。猿類,大猩猩,尤其是黑猩猩,在情緒上非常敏感,能夠在寶寶不安時理解並幫助寶寶。另外,我認為認為猿類會撿起並照顧人類的嬰兒是合理的,因為它與自己的嬰兒非常相似,它能夠意識到它需要幫助,並本能地想要幫助它。
  • 「腦控+AI」,讓人類用「本能」駕駛
    試想一下:如果有一種系統,能在遭遇前方急剎車、行人突然過馬路等突發情況,或者是需要側位停車、倒車入庫等較為複雜的操作時,能將駕駛員腦中所想要達成的結果,準確識別並按照預設流程自主完成,這將是多麼令人舒心的事!
  • 黑猩猩和人類嬰兒一起長大,當它以為自己就是人類時,結果怎樣?
    所以也是有很多科學家犧牲了自己的時間精力,來幫助人類的科學技術更進一步,但是即便如此,也不是所有的科學家做的科學實驗都能得到我們人類的認可,有一些科學家為了驗證自己的正確的科學理論,使用了一些另類手段來進行科學實驗。
  • 黑猩猩和人類嬰兒一起長大,當它以為自己就是人類時,結果怎樣?
    所以也是有很多科學家犧牲了自己的時間精力,來幫助人類的科學技術更進一步,但是即便如此,也不是所有的科學家做的科學實驗都能得到我們人類的認可而我們都知道,人類是由古猿進化而成的,所以也不難猜測,人類跟猩猩的DNA是極為相似的。因為猩猩跟我們人類可能有著同樣的祖先,所以在將來,猩猩由於時間的流逝,猩猩也會進化成人類。但是我們如果從物種的角度來分析,人類和猩猩完全不是同一個物種,所以只從DNA來看,猩猩想要進化成人類,好像也比較困難。
  • 好色是基因裡的本能,但人類卻改變了它,收好這部好色進化史
    動物本能動物有很多神奇的本能,比如,不少動物生下來就可以站起來,就會吸奶,甚至獨立生存,蚊子不需要學習就懂得吸血,所有動物都沒有學過性教育但卻都知道如何交配繁殖……而好色也跟這些本能一樣,是動物天生就具有的,寫在基因裡的。
  • 向強者示好是人類的本能?
    [摘要]人們需要抱團,因為集體才安全。排擠同一個人,可以使一個小集體更有向心力。是的,我們也許不會主動去傷害一個弱者,但是以強者的意願為圭臬、向強者示好,卻是本能。人們需要抱團,因為集體才安全。排擠同一個人,可以使一個小集體更有向心力。是的,我們也許不會主動去傷害一個弱者,但是以強者的意願為圭臬、向強者示好,卻是本能。
  • 人類嬰兒與動物幼崽的區別,沒有意識之前,兩者並沒有區別
    作為人類,我們也知道自己之所以區別於動物的根本原因,那就是人類擁有思維能力。 思維能力也可以說是靈魂,也可以說是意識。但是很少有人去思考這樣一個問題,人類的意識或者是靈魂究竟是在什麼時候才出現的?
  • 動物真的可以把人類的嬰兒養大嗎?為什麼?
    動物把人類的嬰兒撫養大貌似是只存在於神話故事和影視作品中,畢竟人與動物的習性、交流方式天差地別。但是,嚴格意義上說,許多人類的嬰兒生下來就喝牛奶長大,這倒是也可以認為是動物把人養大的,當然,只是食物的供給,無他。不過,如果你在網上搜索一下動物撫養人類嬰兒,你會發現有諸多的所謂真實案例。那麼,動物真的可以把人類的嬰兒養大嗎?為什麼呢?
  • 人類近親黑猩猩不會大聲哭鬧,為啥人類嬰兒的哭聲這麼大?
    所以,在弱肉強食、優勝劣汰的自然界中,越低端的動物幼崽,越要更「自強不息」,而越高端的動物幼崽,出生後面臨的危險就相對少一些。 至於人類,6個月才會坐,8個月才能判斷出親人的具體長相,開始認人,1歲才會走路。而人類作為靈長類動物,除了嘴之外,最有利的武器就是手,可是,人類嬰兒到了4歲都還系不好鞋帶,手部的靈活度還遠遠不夠。
  • 深度學習如何導致類人AI?需要解決三個問題
    而一個孩子通常通過一個例子即可學習區別。 成功的遷移學習應大大減少訓練實例的數量,從而使神經網絡的學習能力更接近於人。這將使AI系統更加靈活,並大大提高學習速度。 在實踐中,已有一些初步的成功,例如谷歌的圖像分析AI Inception,這是一種經過預先訓練的AI模型,經過少量訓練後就可以成功地用於檢測疾病。
  • 繁衍是動物本能,那麼人類的繁衍行為,是天生的還是後天學習的?
    人類是一種非常神奇的生物,從古猿進化到現在,已經成為了地球的統治者了。而人類發展進化這麼多年,都是依靠繁衍來延續人類文明的。從人類還是古猿的時候,就已經學會了繁衍,那麼人類的繁衍行為,到底是先天性還是後天所學習的呢?接下來筆者就帶著大夥一起來探討一下。
  • 離霍金的人類滅亡論又進了一步...
    據報導,歐洲監管機構在開始試驗DNA切割療法後,近期將首次進行人類基因改造。霍金曾經預言,轉基因病毒可能會滅絕整個人類種族。「基因改造人」的新進展,或使人類離霍金的滅亡論又進了一步...近年來美國好萊塢拍攝的眾多科幻電影中,基因改造人或者說變種人佔有一定的分量,比如《蜘蛛俠》《X戰警》《神奇四俠》《綠巨人》等,他們擁有超過人類的特殊能力,甚至可以拯救世界。未來向綠巨人、金剛狼這些「基因改造人」,可能不再只存在於電影中。
  • 鈦媒體專訪深度學習奠基人特倫斯:人類智慧與AI正在融合,量子計算...
    比如想讓電腦識別杯子,就需要把杯子的特徵全部輸入才行。理論上可行,但實際操作起來卻需要大量勞動。在當時,這類研究者被視為主導力量,擁有更充足的資金支持。「他們大大地低估了問題的難度,也低估了對智能的直覺,因此後來被證實是有誤導性的。」特倫斯對此評價道。
  • 人類本能是怎樣影響社會演化的
    通常人們都認為,社會體制的演進,是人文學科的研究範疇,主要體現了人類的社會屬性,和基因、進化這些生物屬性沒什麼關係。但是,資深科學記者尼古拉斯·韋德不同意這種觀點。他在《天生的煩惱:基因、種族與人類歷史》這本書裡說,人類的遺傳和進化,不僅有生物屬性,也包含了社會屬性,基因在一定程度上也影響了社會體制的演進。尼古拉斯·韋德說,從本質上看,形成社會體制的根源,是人類本能的社會行為,比如商業貿易,本質上來說就是人類「交換互利」的本能。他經過縱向比較,發現人類在本能行為上的變化,和社會體制的發展是相對應的。
  • 人類學家赫裡蒂埃:母愛本能
    01愛本能被證實如果仔細觀察,你會發現,在同時聽到嬰兒哭泣的時候,媽媽通常會比爸爸有更快速的反應。這是爸爸懶嗎?是爸爸們反應慢嗎?答案是否定的。因此,在晚上,男人聽到的嬰兒哭聲似乎比女人聽到的嬰兒哭聲要少。儘管父母的角色在最近幾十年已經發生了變化,但在日常生活中負責大部分家務的仍然是母親,尤其是那些與孩子有關的家務。母愛本能,在本性上,讓媽媽比爸爸更愛自己的孩子!
  • 「腦控+AI」讓人用「本能」駕駛
    試想一下:如果有一種系統,能在遭遇前方急剎車、行人突然過馬路等突發情況,或者是需要側位停車、倒車入庫等較為複雜的操作時,能將駕駛員腦中所想要達成的結果,準確識別並按照預設流程自主完成,這將是多麼令人舒心的事!
  • 狼為什麼會把人類嬰兒,當親生孩子養大?原因令人動容
    他們自嬰兒時期就和狼群生活在一起,擁有著和狼一樣的生活習性,甚至是獸性。如果這些狼孩不能回到人群中生活的話,就會將人性遺忘,永遠的生活在叢林之中。眾所周知狼是一種非常兇殘的動物,它們群居而活,對人類充滿敵意。那為什麼狼群還會把人類嬰兒當親生孩子養大呢?
  • 狼碰見人類嬰兒時,為何不直接吃掉反而將其養大?其實原因很簡單
    大意意思是說,嬰兒不會受到毒蟲的蟄咬,也不會遭到猛獸和攫鳥的攻擊。猛獸不吃人類嬰兒的現象,似乎不止一次被人遇到過,曾發生在印度著名的「狼孩事件」,再一次吸引了世人的目光。可是問題來了,當野狼遇到人類嬰兒時,為何不直接吃掉,反而將其撫養長大?動物學家們經過不斷研究,終於有了結論。
  • 愛幼是所有動物的本能,尊老則是人類獨有的文明!
    今天有位網友給我留言,她說,愛幼是所有動物的本能 ,尊老則是人類獨有的文明!我對這句話回味了很久很久。如果說,愛幼是所有動物的本能,當然要包括人類在內。我們可以想想,我們現在所有的家庭 ,有哪一個家庭不重視嬰兒幼兒。
  • 一文讀懂深度學習中的矩陣微積分,fast.ai創始人&ANTLR之父出品
    魚羊 編譯整理量子位 報導 | 公眾號 QbitAI想要真正了解深度神經網絡是如何訓練的,免不了從矩陣微積分說起。這位ANTLR之父和fast.ai創始人Jeremy Howard一起推出了一篇免費教程,旨在幫你快速入門深度學習中的矩陣微積分。簡明,易懂。