英漢雙語-人工智慧可以將人類大腦活動轉化為語言,高科技

2020-12-09 佳人在哈佛

For many people who are paralyzed and unable to speak, signals of what they'd like to say hide in their brains. No one has been able to decipher those signals directly. But three research teams recently made progress in turning data from electrodes surgically placed on the brain into computer-generated speech. Using computational models known as neural networks, they reconstructed words and sentences that were, in some cases, intelligible to human listeners. 對於許多癱瘓和不能說話的人來說,他們想說的話的信號隱藏在他們的大腦裡。目前還沒有人能夠直接破譯這些信號。但最近,三個研究小組在將電極植入大腦的數據轉化為計算機生成的語音方面取得了進展。他們利用被稱為神經網絡的計算模型,重建了在某些情況下人類聽眾能夠理解的單詞和句子。

People who have lost the ability to speak after a stroke or disease can use their eyes or make other small movements to control a cursor or select on-screen letters. (Cosmologist Stephen Hawking tensed his cheek to trigger a switch mounted on his glasses.) But if a brain-computer interface could re-create their speech directly, they might regain much more: control over tone and inflection, for example, or the ability to interject in a fast-moving conversation. 中風或疾病後失去說話能力的人可以用眼睛或做其他小動作來控制光標或選擇屏幕上的字母。(宇宙學家史蒂芬·霍金(Stephen Hawking)繃緊了臉頰,觸發了安裝在眼鏡上的開關。)但如果大腦-電腦界面能夠直接重現他們的講話,他們可能會重新獲得更多:例如,對音調和音調變化的控制,或在快速移動的對話中插話的能力。

The hurdles are high. "We are trying to work out the pattern of … neurons that turn on and off at different time points, and infer the speech sound," says Nima Mesgarani, a computer scientist at Columbia University. "The mapping from one to the other is not very straightforward." How these signals translate to speech sounds varies from person to person, so computer models must be "trained" on each individual. And the models do best with extremely precise data, which requires opening the skull. 困難重重。哥倫比亞大學(Columbia University)計算機科學家尼瑪梅斯加拉尼(Nima Mesgarani)表示:「我們正試圖找出……神經元在不同時間點開啟和關閉的模式,並推斷出語音。」「從一個到另一個的映射不是很簡單。」這些信號轉換成語音的方式因人而異,因此計算機模型必須針對每個人進行「訓練」。這些模型最擅長處理極其精確的數據,這需要打開頭骨。

Researchers can do such invasive recording only in rare cases. One is during the removal of a brain tumor, when electrical readouts from the exposed brain help surgeons locate and avoid key speech and motor areas. Another is when a person with epilepsy is implanted with electrodes for several days to pinpoint the origin of seizures before surgical treatment. "We have, at maximum, 20 minutes, maybe 30," for data collection, Martin says. "We're really, really limited." 研究人員只能在極少數情況下進行這種侵入性記錄。一個是在移除腦瘤的過程中,當暴露的大腦發出的電子讀數幫助外科醫生定位和避免關鍵的語言和運動區域。另一種是將電極植入癲癇病人體內數天,以便在手術治療前查明癲癇發作的原因。馬丁說:「我們最多只有20分鐘,或許30分鐘的時間來收集數據。」「我們搜集數據的時間真的、真的很有限。」

The groups behind the new papers made the most of precious data by feeding the information into neural networks, which process complex patterns by passing information through layers of computational "nodes." The networks learn by adjusting connections between nodes. In the experiments, networks were exposed to recordings of speech that a person produced or heard and data on simultaneous brain activity. 這些新發表的論文背後的團隊通過將信息輸入神經網絡,充分利用了寶貴的數據。神經網絡通過計算「節點」層傳遞信息,處理複雜的模式。網絡通過調整節點之間的連接來學習。在實驗中,一個人講話的錄音和同時進行的大腦活動的數據都能夠通過網絡而獲得。

Mesgarani's team relied on data from five people with epilepsy. Their network analyzed recordings from the auditory cortex (which is active during both speech and listening) as those patients heard recordings of stories and people naming digits from zero to nine. The computer then reconstructed spoken numbers from neural data alone; when the computer "spoke" the numbers, a group of listeners named them with 75% accuracy. Mesgarani的團隊依靠5名癲癇患者的數據。他們的網絡分析了來自聽覺皮層的錄音(在聽和說的過程中都是活躍的),這些病人聽到的是故事的錄音,以及人們從0到9來命名數字的錄音。然後,計算機僅用神經數據重建語音數字;當計算機「說出」這些數字時,一組聽眾的正確率達到了75%。

最後,加州大學舊金山分校的神經外科醫生Edward Chang和他的團隊在三個癲癇病人大聲朗讀的同時,從語言和運動區域捕捉到的大腦活動中重構出完整的句子。在一項在線測試中,166人聽到了其中一個句子,並從10個書面選擇中進行選擇。有些句子在80%以上的情況下都能正確識別。研究人員還進一步推進了這一模型:他們使用該模型從人們默不作聲時記錄下來的數據中重新創建句子。這是一個重要的結果,赫夫說——「離我們腦海中的語音假肢又近了一步。」

註明:本文及圖片來自於網絡,經樂英語教育作者翻譯編輯成文,如有侵權請告知刪除!

相關焦點

  • 科學家發明了一種「神經解碼器」,可以將大腦活動轉化為語言
    讀心術機器的想法可能會讓很多人感到震驚,但一種能將大腦活動轉化為語言的新設備,可能是那些失去聲音功能的病人走向生命線的第一步。很長一段時間,我們已經能夠做到的最好的在這方面的著名物理學家史蒂芬·霍金使用的設備,用戶選擇的字母或單詞從屏幕使用運動的肌肉,他們仍然可以控制每分鐘只有幾句話。但是現在,加州大學舊金山分校的科學家們已經證明了一種方法,可以將大腦記錄的信號轉換成可廣泛理解的句子。
  • 講講人工智慧對人類社會的影響及對人類未來的發展
    人工智慧對人類社會的影響人工智慧系統的開發和應用,己為人類創造出可觀的經濟效益,專家系統就是一個例子「隨著計算機系統的不斷發展與完善,人工智慧技術必將得到更大的推廣,產生更大的經濟效益」。
  • 百度大腦獲中國電子學會年度科技獎,王海峰詳解語言與智能
    以「智聯網與未來」為主題,大會開展了學術交流、技術研討和成果轉化、展覽展示等系列活動。百度高級副總裁、AI 技術平臺體系 (AIG) 和基礎技術體系(TG)總負責人王海峰發表題為《語言與智能》的演講。此外,作為國內最早投身人工智慧的科技巨頭,百度於 2016 年發布的 AI 核心技術引擎「百度大腦核心技術及開放平臺」榮獲 2018 年度中國電子學會科學技術獎科技進步獎一等獎。
  • 科學家利用大腦電極實現將思想直接轉化為語言!
    因為這項實驗的最終目標是將思想直接轉化為語言。在手術臺上,Mehta小心翼翼地在病人大腦的左側表面插入了一組扁平的微電極陣列,覆蓋了大腦聆聽演講和構思演講的區域。當一個人在聽心裡的聲音說他想說的話時(通常速度非常之快,所以幾乎是沒有意識的),通過偷聽他大腦灰質中的電脈衝,然後將這些信號無線傳輸到電腦解碼,電極和系統的其餘部分就將會超越「運動」和「感覺」成為第一個「大腦-計算機接口」。
  • 高科技改變大腦結構 人越來越笨?
    當今時代,日新月異的智能科技發展,總為人類帶來意想不到的「驚喜」。不久前,有美國研究者認為,科技對人類智力的影響可能是「致命的」,因為當今的數碼科技大爆炸,在為人們生活帶來便利之餘,同時也改變了人類的生活習慣和溝通方式,甚至造成人類大腦內部的劇變。刨根問底,科技到底是讓人變得廣博,抑或變得淺薄呢?
  • 人類是怎麼被「創造」出來的,人類也能創造智能生命嗎?
    生命的起源是什麼,尤其是人類?直到最近幾個世紀,科學才開始為解決這些問題作出自己的貢獻。神學家相信生命是最偉大的奇蹟,人是「上帝」的宇宙總體計劃的最大成就。「上帝」將無生命物質的分子四處擺動,創造了一個生物,並巧妙地操縱了類人猿的基因結構,從而創造了人類。進化論認為生命是純粹的、自然的物理和化學活動的結果,而人類是長期曲折進化的最終產物。隨著科學的發展。我們能用技術在實驗室裡創造生命嗎?
  • 考研英語翻譯必備知識:英漢語言的主要差異
    第三節  英漢語言的主要差異正如第一節所述,就基本的句型結構(簡單句)或句子主幹(主語、謂語和賓語)而言,英語和漢語基本上是相同的,可以相互直譯或順譯,這是兩者可以互譯的基礎。所以,大多數考生認為,做考研翻譯就像但丁的三部曲:閱讀理解是地獄,轉化表達是煉獄,考分滿意是天堂。事實上,如果考生能夠對英漢兩種語言之間結構方面的差異有所了解,掌握兩者之間的一些轉化規律,再假以時日反覆練習,做好考研翻譯也不是一件很難的事情,獲得天堂般的感受也是指日可待。筆者根據多年的教學經驗,結合眾多語言學前輩的研究成果,在此總結出英漢語言在結構方面的一些主要差異,相信對各位考生必有所裨益。
  • "英漢大詞典"第三版依託網際網路 與讀者一起編詞典
    它是新中國成立以來由國家規劃的中外語文詞典編寫出版中規模最大的一本英漢雙語詞典。作為一項國家任務,《英漢大詞典》的編寫任務落到了上海,由上海譯文出版社負責組織編寫出版工作。   歷時16年的編寫歷程像一場漫長的馬拉松,從手寫的一張張資料卡片開始,集腋成裘,匯集成一座英漢雙語的「文化崑崙」。
  • 陳根:雙語切換過程中,大腦是如何工作的
    文/陳根目前,隨著全球化的發展,學習和運用多種語言的人數不斷增加,他們能夠精準地來回切換不同語言。這也促進了關於語言轉換的大腦機制研究。2017年就有一項研究發現,短期的雙語切換訓練可以調節雙語者的語言控制機制,並引起相應的行為、腦電和腦功能激活的改變。
  • 2018人工智慧可以超越人類大腦運作思維嗎?你會怎麼理解?
    不管你今天討論的是傳統人工智慧的邏輯與知識推理主導之專家系統(Expert Systems),還是用模擬神經元連結來處理和儲存資料的人工神經網絡(Artificial Neural Networks),或是用貝茲網絡(Bayesian Network)來計算主觀機率,所有的人工智慧方法都只有一個目的,那就是有效率地完成一生產性工作。人工智慧與人類不同。
  • 陳根:一個大腦,兩種語言,轉換並不費力
    2017年就有一項研究發現,短期的雙語切換訓練可以調節雙語者的語言控制機制,並引起相應的行為、腦電和腦功能激活的改變。然而尚不清楚驅動這種活動的是從之前的語言脫離出來的過程,還是進入到新語言的過程,。>另一種語言兩個步驟區分開來,利用腦磁圖描記術(MEG)來測量研究對象的大腦活動。
  • 神經科學家終於追蹤到了大腦中的雙語語言轉換方式
    直到現在,研究人員一直不知道完成哪一部分時,大腦需要做更多的工作:結束第一語言或從第二語言開始。一項新的研究揭示了當我們在語言之間進行切換時發生了什麼。「多語種個體的一個顯著特徵是他們能夠在不同的語言之間快速準確地來回切換,」研究主要作者說。
  • Nature發布最大蛋白質互作圖;雙語對大腦發育的影響
    研究證實,神經厭食症患者出現心血管併發症時在心臟超聲下可見心臟結構和功能的異常改變,這些結構和功能的異常在一定程度上反映著患者神經厭食症相關症狀的嚴重程度,可以作為對神經厭食症患者危險分層的評價工具,指導臨床對神經厭食症重症患者的靶定。 4,雙語對人體大腦發育有影響嗎?
  • 大腦如何將外部信息轉化為記憶?
    科技日報訊 (記者顧鋼)人類大腦如何將外部信息轉化為自己的記憶?作為「人類大腦計劃」的一部分,來自德國、瑞典和瑞士的科研小組研究了大腦紋狀體中的神經元迴路。研究結果發表在近期的《計算生物學》雜誌上,對理解神經系統的基本功能具有重要意義。
  • 人工培育大腦未來可替換人類大腦的某些構成?成為真正大腦的組成
    人的身體其中主要的部分應該就是我們的大腦,大腦作為神經系統最高組成部分,是人的重要思維器官,支配著人身體一切的活動,並且調節身體機能以及跟周圍的環境的平衡,一般來說我們不論想要做什麼事情或者是有什麼樣的主觀意識,其實都是我們人類大腦的支配,所以大腦可以說是我們最重要的身體構成。
  • 精通多門語言,對你的大腦有什麼好處?
    精通多門語言,可以在實質上改變你大腦的結構和工作方式:¿Hablas español? Parlez-vous français?你會說中文嗎?如果你能回答,「sí」, 「oui」或者「會」,或者看英文視頻無障礙,那麼說明你很可能精通,並可以使用多種語言。
  • 中科院自動化所餘山:對大腦的未知,並不阻礙借鑑大腦,成就智能
    當前神經元有一個動作電位時,它會釋放某種神經遞質,這種遞質被後神經元吸收之後便會轉化為電信號,從而實現電信號在神經元之間的傳遞。這裡面兩個神經元之間信息傳遞的關鍵是:電信號促使化學物質釋放。這種方式存在缺點,即神經衝動導致神經遞質釋放並不總是成功——成功概率的中位數僅在0.2~0.3之間,也即有80%左右的概率會出現信息傳輸失敗。然而,如此低的成功率卻有它獨特的意義。低
  • 關於人類語言的10個問題,語言最早起源於什麼時期?
    1 語言最早起源於何時?語言是人類社會中功能強大的一種技能,通過一些特定的編碼符號,將你的想法傳達給他人,同時通過這種編碼符號了解別人的想法。語言還是連結和溝通過去、現在和未來信息的強大工具,我們還可以通過語言,將各種想法有條不紊地組織起來,通過語言來實施某些行動,說服、誘導甚至是欺騙他人。
  • 新研究:學習第二語言會影響大腦結構,提高大腦效率
    例如,一些研究發現,雙語或多語成年人的皮層區域和皮層下灰質結構與單語者的不同。這些發現與其他觀察結果一致,此前的其他觀察強調,掌握一項新技能(如雜耍、彈鋼琴或操作特定工具)的人大腦結構也會發生變化。由於這些變化通常發生在與習得技能相關的大腦區域,因此掌握雙語和多語預計會影響與語言處理、學習和控制相關的大腦區域。
  • 中國十大人工智慧公司排行榜
    公司以「堅持原創,讓AI引領人類進步」為使命,商湯科技建立了國內頂級的自主研發的深度學習超算中心,並成為中國一流的人工智慧算法供應商。2018年3月1日,商湯科技走向世界,麻省理工學院(MIT)宣布和商湯科技成立人工智慧聯盟,共同探索人類與機器智能的未來。