應用、算法、晶片,「三位一體」淺析語音識別

2020-11-22 雷鋒網

雷鋒網(公眾號:雷鋒網) AI科技評論按:本文作者為辰韜資本黃松延原文首發於微信公眾號:辰韜資本(ID: chentaoziben),雷鋒網AI科技評論獲其授權轉載。

黃松延,浙江大學人工智慧博士,前華為高級算法工程師,對深度學習及其應用有深入的研究,閱後若有所感,歡迎通過郵箱syhuang@chentao-capital.com或者微信號Nikola_629與他交流。

人工智慧產業鏈由基礎層、技術層與應用層構成,同樣,智能語音識別亦由這三層組成。基於大量數據的積累、深度神經網絡模型的發展及算法的迭代優化,近年,語音識別準確率取得了不斷的提升。

基於大量數據的積累、深度神經網絡模型的發展及算法的迭代優化,近年,語音識別準確率取得了不斷的提升。2016年10月,微軟宣布英語語音識別詞錯率下降到5.9%,從而能夠媲美人類。現階段,在理想的環境下,多家公司的語音識別系統已經越過了實用的門檻,並在各個領域得到了廣泛的應用。

人工智慧產業鏈由基礎層、技術層與應用層構成。同樣,智能語音識別亦由這三層組成,本文從語音識別的商業化應用出發,並探討驅動語音識別發展的算法及硬體計算能力,三位一體淺析語音識別現狀、發展趨勢及仍然面臨的難點。


一、應用

智能語音技術是人工智慧應用最成熟的技術之一,並擁有交互的自然性,因而,其具有巨大的市場空間。中國語音產業聯盟《2015中國智能語音產業發展白皮書》數據顯示,2017年全球智能語音產業規模將首次超過百億美元,達到105億美元。中國2017年智能語音產業規模也將首次突破百億元,五年複合增長率超過60%。


圖1.來源:wind、華安證券研究所

科技巨頭都在打造自己的智能語音生態系統,國外有IBM、微軟、Google,國內有百度、科大訊飛等。

IBM、微軟、百度等公司在語音識別方面,使用組合模型,不斷提升語音識別性能。微軟基於6個不同的深度神經網絡構成的聲學模型以及4個不同的深度神經網絡構成的語言模型,取得了超越人類的識別準確率。科大訊飛則基於深度全序列卷積神經網絡語音識別框架,取得了實用級的識別性能。雲知聲、捷通華聲、思必馳等智能語音創業公司亦在不斷打磨自己的識別引擎,並能夠把自己的技術落地到產業中。

在巨頭和創新者的推動下,語音識別逐漸在智能家居、智能車載、語音助手、機器人等領域取得迅猛發展。

1、智能家居

在智能家居,尤其是智能音箱市場,亞馬遜與Google處於行業統治地位,並各具特色。

亞馬遜的Echo已經賣出近千萬臺,引爆了在線智能音箱市場。相比於傳統的音箱,Echo具有遠程喚醒播放音樂、聯網查詢諮詢信息、智能控制家電等功能。但是在智能問答方面,Echo表現一般,Google以此為突破口,發布Google Home,從亞馬遜手中搶奪23.8%的智能音箱市場份額。2017年9月,亞馬遜發布了多款Echo二代產品,相比一代在音質上有明顯的提升,且Echo Plus具備更加強大的家居控制功能,能夠自動搜索到附件的智能家居設備,並進行控制。

在我國的語控電視、語控空調、語控照明等智能語控家電市場,科大訊飛、雲知聲、啟英泰倫做了深入布局。

科大訊飛聯合京東發布叮咚音箱,並於2016年推出訊飛電視助理,打造智能家居領域的入口級應用。雲知聲提供物聯網人工智慧技術,通過與格力等公司合作,把自己的語音識別技術集成到終端家電產品中,另外,雲知聲發布的『Pandora』語音中控方案,能夠大幅縮短產品智能化周期。啟英泰倫結合自己強大的硬體(終端智能語音識別晶片CI1006)及算法(深度學習語音識別引擎)優勢,提供離線與在線的整套語音識別方案,並在物聯網各個領域有廣泛的布局。

2、智能車載

隨著智能網聯的發展,預計未來車聯網在車載端的滲透率將超過50%。但是基於安全性等因素考慮,車載端智能與手機端智能有極大的差別,從手機端簡單拷貝的方式並不適合車載端使用場景。語音基於其交互的自然性,被認為是未來人與車交互的主要入口路徑。

百度藉助自己的人工智慧生態平臺,推出了智能行車助手CoDriver。科大訊飛與奇瑞等汽車製造商合作,推出了飛魚汽車助理,推進車聯網進程。搜狗與四維圖新合作推出了飛歌導航。雲知聲、思必馳在導航、平視顯示器等車載應用方面推出了多款智能語控車載產品。出門問問則基於自己的問問魔鏡進入到智能車載市場。

在語音識別的商業化落地中,需要內容、算法等各個方面的協同支撐,但是良好的用戶體驗是商業應用的第一要素,而識別算法是提升用戶體驗的核心因素。下文將從語音識別的算法發展路徑、算法發展現狀及前沿算法研究三個方面來探討語音識別技術。


二、算法

對於語音識別系統而言,第一步要檢測是否有語音輸入,即,語音激活檢測(VAD)。在低功耗設計中,相比於語音識別的其它部分,VAD採用always on的工作機制。當VAD檢測到有語音輸入之後,VAD便會喚醒後續的識別系統。識別系統總體流程如圖2所示,主要包括特徵提取、識別建模及模型訓練、解碼得到結果幾個步驟。

                   


圖2.語音識別系統

1、VAD(語音激活檢測)

用於判斷什麼時候有語音輸入,什麼時候是靜音狀態。語音識別後續的操作都是在VAD截取出來的有效片段上進行,從而能夠減小語音識別系統噪聲誤識別率及系統功耗。在近場環境下,由於語音信號衰減有限,信噪比(SNR)比較高,只需要簡單的方式(比如過零率、信號能量)來做激活檢測。但是在遠場環境中,由於語音信號傳輸距離比較遠,衰減比較嚴重,因而導致麥克風採集數據的SNR很低,這種情況下,簡單的激活檢測方法效果很差。使用深度神經網絡(DNN)做激活檢測是基於深度學習的語音識別系統中常用的方法(在該方法下,語音激活檢測即為一個分類問題)。在MIT的智能語音識別晶片中使用了精簡版的DNN來做VAD,該方法在噪聲比較大的情況下也具有很好的性能。但是更複雜的遠場環境中,VAD仍然是未來研究的重點。

2、特徵提取

梅爾頻率倒譜係數(MFCC)是最為常用的語音特徵,梅爾頻率是基於人耳聽覺特徵提取出來的。MFCC主要由預加重、分幀、加窗、快速傅立葉變換(FFT)、梅爾濾波器組、離散餘弦變換幾部分組成,其中FFT與梅爾濾波器組是MFCC最重要的部分。但是近年研究表明,對於語音識別而言,梅爾濾波器組不一定是最優方案。受限的玻爾茲曼機(RBM)、卷積神經網絡(CNN)、CNN-LSTM-DNN(CLDNN)等深度神經網絡模型作為一個直接學習濾波器代替梅爾濾波器組被用於自動學習的語音特徵提取中,並取得良好的效果。

目前已經證明,在特徵提取方面,CLDNN比對數梅爾濾波器組有明顯的性能優勢。基於CLDNN的特徵提取過程可以總結為:在時間軸上的卷積、pooling、pooled信號進入到CLDNN中三個步驟。

遠場語音識別領域,由於存在強噪聲、迴響等問題,麥克風陣列波束成形仍然是主導方法。

另外,現階段,基於深度學習的波束成形方法在自動特徵提取方面亦取得了眾多研究成果。

3、識別建模

語音識別本質上是音頻序列到文字序列轉化的過程,即在給定語音輸入的情況下,找到概率最大的文字序列。基於貝葉斯原理,可以把語音識別問題分解為給定文字序列出現這條語音的條件概率以及出現該條文字序列的先驗概率,對條件概率建模所得模型即為聲學模型,對出現該條文字序列的先驗概率建模所得模型是語言模型。

3.1  聲學模型

聲學模型是把語音轉化為聲學表示的輸出,即找到給定的語音源於某個聲學符號的概率。對於聲學符號,最直接的表達方式是詞組,但是在訓練數據量不充分的情況下,很難得到一個好的模型。詞組是由多個音素的連續發音構成,另外,音素不但有清晰的定義而且數量有限。因而,在語音識別中,通常把聲學模型轉換成了一個語音序列到發音序列(音素)的模型和一個發音序列到輸出文字序列的字典。

需要注意的是,由於人類發聲器官運動的連續性,以及某些語言中特定的拼讀習慣,會導致音素的發音受到前後音素的影響。為了對不同語境的音素加以區分,通常使用能夠考慮前後各一個音素的三音子作為建模單元。

另外,在聲學模型中,可以把三音子分解為更小的顆粒—狀態,通常一個三音子對應3個狀態,但是這會引起建模參數的指數增長,常用的解決方案是使用決策樹先對這些三音子模型進行聚類,然後使用聚類的結果作為分類目標。

至此,語音識別有了最終的分類目標—狀態。最常用的聲學建模方式是隱馬爾科夫模型(HMM)。在HMM下,狀態是隱變量,語音是觀測值,狀態之間的跳轉符合馬爾科夫假設。其中,狀態轉移概率密度多採用幾何分布建模,而擬合隱變量到觀測值的觀測概率的模型常用高斯混合模型(GMM)。基於深度學習的發展,深度神經網絡(DNN)、卷積神經網絡(CNN)、循環神經網絡(RNN)等模型被應用到觀測概率的建模中,並取得了非常好的效果。下文給出各個模型的原理、所解決的問題及各自局限性,且給出了由模型的局限性而引起建模方式發展的脈絡。

1)高斯混合模型(GMM)

觀測概率密度函數由高斯混合模型建模,訓練中,不斷迭代優化,以求取GMM中的加權係數及各個高斯函數的均值與方差。GMM模型訓練速度較快,且GMM聲學模型參數量小,可以容易地嵌入到終端設備中。在很長一段時間內,GMM-HMM混合模型都是表現最優秀的語音識別模型。但是GMM不能利用語境信息,其建模能力有限。

2)深度神經網絡(DNN)

最早用於聲學模型建模的神經網絡,DNN解決了基於高斯混合模型進行數據表示的低效問題。語音識別中,DNN-HMM混合模型大幅度的提升了識別率。目前階段,DNN-HMM基於其相對有限的訓練成本及高識別率,仍然是特定的語音識別工業領域常用的聲學模型。需要注意的是,基於建模方式的約束(模型輸入特徵長度的一致性需求),DNN模型使用的是固定長度的滑動窗來提取特徵。

3)循環神經網絡(RNN)/卷積神經網絡(CNN)模型

對於不同的音素與語速,利用語境信息最優的特徵窗長度是不同的。能夠有效利用可變長度語境信息的RNN與CNN在語音識別中能夠取得更好的識別性能。因而,在語速魯棒性方面,CNN/RNN比DNN表現的更好。

在使用RNN建模方面,用於語音識別建模的模型有:多隱層的長短期記憶網絡(LSTM)、highway LSTM、ResidualLSTM、雙向LSTM、時延控制的雙向LSTM。

  • LSTM,基於門控電路設計,其能夠利用長短時信息,在語音識別中取得了非常好的性能。另外,可以通過增加層數進一步提升識別性能,但是簡單地增加LSTM的層數會引起訓練困難及梯度消失問題。

  • Highway LSTM,在LSTM相鄰層的記憶單元間添加一個門控的直接鏈路,為信息在不同層間流動提供一個直接且不衰減的路徑,從而解決梯度消失問題

  • Residual LSTM,在LSTM層間提供一個捷徑,亦能解決梯度消失問題。

  • 雙向LSTM,能夠利用過去及未來的語境信息,因而其識別性能比單向的LSTM好,但是由於雙向LSTM利用了未來的信息,因而基於雙向LSTM建模的語音識別系統需要觀察完整的一段話之後才能識別,從而不適用於實時語音識別系統。

  • 時延控制的雙向LSTM,通過調整雙向LSTM的反向LSTM,實現了性能與實時性的一個折中建模方案,能夠應用於實時的語音識別系統。

CNN建模方面,包括時延神經網絡(TDNN)、CNN-DNN、CNN-LSTM-DNN(CLDNN)、CNN-DNN-LSTM(CDL)、深度CNN、逐層語境擴展和注意(LACE)CNN、dilated CNN。

  • TDNN,最早被用於語音識別的CNN建模方式,TDNN 會沿頻率軸和時間軸同時進行卷積,因此能夠利用可變長度的語境信息。TDNN用於語音識別分為兩種情況,第一種情況下:只有TDNN,很難用於大詞彙量連續性語音識別(LVCSR),原因在於可變長度的表述(utterance)與可變長度的語境信息是兩回事,在LVCSR中需要處理可變長度表述問題,而TDNN只能處理可變長度語境信息;第二種情況:TDNN-HMM 混合模型,由於HMM能夠處理可變長度表述問題,因而該模型能夠有效地處理LVCSR問題。

  • CNN-DNN,在DNN前增加一到兩層的卷積層,以提升對不同說話人的可變長度聲道(vocal tract)問題的魯棒性,對比於單純DNN,CNN-DNN性能有一定幅度(5%)的提升

  • CLDNN及CDL,在這兩個模型中,CNN只處理頻率軸的變化,LSTM用於利用可變長度語境信息。

  • 深度CNN,這裡的「深度」是指一百層以上。語譜圖可以被看作是帶有特定模式的圖像,通過使用比較小的卷積核以及更多的層,來利用時間及頻率軸上長範圍的相關信息,深度CNN的建模性能與雙向LSTM性能相當,但是深度CNN沒有時延問題。在控制計算成本的情況下,深度CNN能夠很好的應用於實時系統。

  • 逐層語境擴展和注意(LACE)CNN及dilated CNN,深度CNN的計算量比較大,因而提出了能夠減小計算量的 LACE CNN與dilated CNN,其把整個話語看作單張輸入圖,因而可以復用中間結果,另外,可以通過設計LACE CNN及dilated CNN網絡每一層的步長,使其能夠覆蓋整個核,來降低計算成本。

語音識別的應用環境常常比較複雜,選擇能夠應對各種情況的模型建模聲學模型是工業界及學術界常用的建模方式。但是各個單一模型都有局限性。HMM能夠處理可變長度的表述,CNN能夠處理可變聲道,RNN/CNN能夠處理可變語境信息。聲學模型建模中,混合模型由於能夠結合各個模型的優勢,是目前聲學建模的主流方式。

3.2  語言模型

語音識別中,最常見的語言模型是N-Gram。近年,深度神經網絡的建模方式也被應用到語言模型中,比如基於CNN及RNN的語言模型。


4、端到端的語音識別系統

在DNN-HMM或者CNN/RNN-HMM模型中,DNN/CNN/RNN與HMM是分開優化的,但是語音識別本質上是一個序列識別問題,如果模型中的所有組件都能夠聯合優化,很可能會獲取更好的識別準確度,這一點從語音識別的數學表達式也可以看出(利用貝葉斯準則變化之後的表達式),因而端到端的處理方式亦被引入到語音識別系統中。

4.1  CTC準則

其核心思想是引入空白標籤,然後基於前向後向算法做序列到序列的映射。CTC準則可分為character-based CTC、other output units-based CTC、word-based CTC,由於CTC準則是直接預測字符、單詞等,而不是預測音素,因而其能夠剔除語音識別中的字典等專家知識。由於在非word-based CTC中,仍然需要語言模型及解碼器。因而,character-basedCTC與other output units-based CTC是非純粹的端到端的語音識別系統。相反,word-based CTC模型是純粹的端到端語音識別系統。

基於word-based CTC準則,使用10萬個詞作為輸出目標且使用 12.5 萬小時訓練樣本得到的語音序列到單詞序列的模型,能夠超越基於音素單元的模型。但是word-based CTC模型有訓練困難及收斂慢的問題。

4.2  Attention-based模型

相比於CTC準則,Attention-based模型不需要有幀間獨立性假設,這也是Attention-based模型的一大優勢,因而Attention-based模型可能能夠取得更好的識別性能。但是相比於CTC準則,Attention-based模型訓練更加困難,且有不能單調地從左到右對齊及收斂更慢的缺點。通過將 CTC 目標函數用作輔助代價函數,Attention訓練和 CTC 訓練以一種多任務學習的方式結合到了一起。這種訓練策略能夠很大程度上改善Attention-based模型的收斂問題,並且緩解了對齊問題。

語音識別的發展過程中,深度學習起到了關鍵的作用。聲學模型遵循從 DNN 到 LSTM再到端到端建模的發展路徑。深度學習最大的優勢之一是特徵表徵。在有噪聲、迴響等情況下,深度學習可以把噪聲、迴響看為新的特徵,並通過對有噪聲、迴響數據的學習,達到比較理想的識別性能。目前階段,端到端的建模方式是聲學模型建模的重點研究方向,但是相比於其它的建模方式,其還沒有取得明顯的性能優勢。如何在端到端建模的基礎上,提升訓練速度及性能,並解決收斂問題是聲學模型的重要研究方向。


5、解碼

基於訓練好的聲學模型,並結合詞典、語言模型,對輸入的語音幀序列識別的過程即為解碼的過程。傳統的解碼是將聲學模型、詞典以及語言模型編譯成一個網絡。解碼就是在這個動態網絡空間中,基於最大後驗概率,選擇一條或多條最優路徑作為識別結果(最優的輸出字符序列)。搜索常用的方法是Viterbi算法。對於端到端的語音識別系統,最簡單的解碼方法是beam search算法。


6、遠場複雜環境下解決方案

目前階段,在近場安靜環境下,語音識別能夠取得非常理想的識別效果,但是在高噪聲、多人說話、強口音等環境,特別是遠場環境下,語音識別還有諸多問題需要解決。語音模型自適應、語音增強與分離、識別模型優化等是常用的可選解決方案。

6.1  語音增強與分離

遠場環境下,語音輸入信號衰減比較嚴重,為了對語音信號增強,常採用麥克風陣列的波束形成技術,比如,Google Home採用雙麥的設計方案,亞馬遜Echo採用6+1的麥克風陣列設計方案。近年,深度學習方法被應用到語音增強與分離中,核心思想是把語音增強與分離轉化為一個監督學習問題,即預測輸入聲音源的問題。有研究使用DNN替代波束形成,實現語音增強,並在一定場景下取得了比較理想的效果。但是在背景噪聲很大的環境中,該方法性能還有較大提升空間。

在多人說話的情況下,如果不對輸入信號做分離處理,而進行語音識別的話,識別效果會很差。對於該問題,在多個說話人距離較遠的情況下,波束形成是一個比較好的解決方案,但是當多個說話人距離很近的時候,波束形成的語音分離效果也很差。為了避開波束形成所帶來的場景分類問題,傳統的方法多是在單通道下嘗試解決該問題,常用算法有computational auditory scene analysis、非負矩陣分解、deep clustering 等,但是這些方法只有當噪聲信號(除聲源外的其他信號)與聲音源信號有明顯不同的特徵時,這些技術才取得比較好的效果。其它情況下,這些方法在語音分離中取得的效果一般。2016年,俞棟博士提出了一種新的深度學習訓練準則-- permutation invariant training,巧妙地解決了該問題,並取得了不錯的效果。

6.2  語音模型自適應

  • 大量且豐富(能夠提供更多信息)的數據集是提升模型泛化能力的最直接簡單的方法;

  • 基於成本及訓練時間的考慮,一般情況下只使用有限的訓練數據。此時,在模型訓練中加入Kullback-Leiblerdivergence正則項是解決模型自適應問題非常有效的方式;

  • 除了加入正則項外,使用非常少的參數來表徵說話者特徵是另一種自適應方式,其包括:奇異值分解瓶頸自適應,把滿秩矩陣分解為兩個低秩矩陣,減小訓練參數;子空間法,子空間法又包括:

    1. 在輸入空間及深度網絡的各個層中加入i-vector、揚聲器(speaker)編碼、噪聲估計等輔助特徵;

    2. 聚類自適應訓練(CAT);

    3. 隱層分解(FHL),相比於CAT,FHL只需要少量的訓練數據,原因在於FHL的基是秩為1的矩陣,而CAT的基是滿秩矩陣,在基數量一樣的情況下,CAT需要更多的訓練數據。

實時性是語音識別應用中關注度很高的問題之一,實時性直接影響用戶的體驗感,提高語音識別的實時性可以通過降低運算時間成本與提升識別硬體計算能力兩方面完成。


7、降低運算時間成本

  • SVD,基於奇異值分解的數學原理,把滿秩矩陣分解為兩個低秩矩陣,減小深度模型的參數,且能夠不降低模型識別性能;

  • 壓縮模型,使用向量量化或者極低比特量化算法;

  • 改變模型結構,主要針對LSTM,在LSTM中增加一個線性映射層,降低原有LSTM的輸出維度,從而降低運算時間成本;

  • 使用跨幀的相關性來降低評估深度網絡分數的頻率,對於DNN或CNN而言,這可以通過使用跳幀策略完成,即每隔幾幀才計算一次聲學分數,並在解碼時將該分數複製到沒有評估聲學分數的幀 。

另外,提升識別階段硬體的運算能力,開發專用的語音識別晶片對增強語音識別的實時性意義重大,下文將會在這方面展開討論。


三、晶片

不斷積累的高質量大數據與深度學習算法是語音識別性能能夠不斷提升的關鍵。基礎層的核心處理晶片是支持海量訓練數據、複雜的深度網絡建模方式以及實時推斷的關鍵要素。語音識別包括訓練與識別(給定訓練好的模型,對輸入語音進行識別)兩部分。

在訓練階段,由於數據量及計算量巨大,傳統的CPU或者單一處理器幾乎無法單獨地完成一個模型訓練過程(初始階段,谷歌大腦語音識別項目是基於16000個CPU,用了75天,完成一個有156M參數的深度神經網絡模型訓練工作)。原因在於CPU晶片架構中只有少量的邏輯運算單元,且指令執行是一條接一條的串行過程,其算力不足。研發具有高計算能力的晶片成為語音識別乃至整個人工智慧硬體的發展趨勢。

與CPU不同的是,GPU具有大量的計算單元,因而特別適合大規模並行計算。另外,FPGA、TPU、ASIC這些延續傳統架構的晶片亦在大規模並行計算中得到廣泛的應用。需要注意的是,從本質上講,這些晶片都是計算性能與靈活性/通用性trade-off的結果,即,如圖3所示。CPU,GPU是通用處理器,DSP歸為ASP,TPU是ASIC這一類,FPGA則是一種Configurable Hardware。

圖3.來源:RIT的Shaaban教授的計算機體系結構課程

另外,基於實時性、低功耗、高計算力的需求,使用專屬語音識別AI晶片處理識別階段大量的矩陣運算,進行運算加速是今後終端語音識別晶片市場的主流方向。


1、雲端場景

由於計算量、訓練數據量極大,且需要大量的並行運算,目前語音識別的模型訓練部分基本都放在雲端進行。在雲端訓練中,英偉達的GPU佔主導市場,多GPU並行架構是終端訓練常用的基礎架構方案。另外,Google在自己的人工智慧生態中,使用TPU做訓練與識別。

目前階段,語音識別公司的識別部分也大多放在雲端,比如Google home、亞馬遜Echo,國內的科大訊飛、雲知聲等。在雲端識別中,雖然也有使用GPU,但是GPU並不是最優方案,更多的是利用CPU、GPU、FPGA各自優勢,採用異構計算方案(CPU+GPU+FPGA/ASIC)。


2、終端場景

在智能家居等行業應用中,對實時性、穩定性及隱私性有極高的要求。出於對雲端數據處理能力、網絡延遲及數據安全性的考慮,把計算下放到終端硬體中的邊緣計算得到了快速的發展。終端離線的語音識別即是一種基於邊緣計算的邊緣智能,我們認為離線與在線是語音識別共存的發展路線。在終端離線識別中,需要把訓練好的模型存儲到晶片。給定語音輸入時,引擎會調用模型,完成識別。終端語音識別兩個關鍵因素是實時性與成本,其中實時性影響用戶體驗,成本影響語音識別應用範圍。

由於深度神經網絡在語音識別中取得明顯的性能優勢,其是目前主流的語音識別建模方式。但是神經網絡的模型參數量一般非常大,且識別過程中有大量的矩陣計算,常用的DSP或者CPU處理該問題時需要大量的時間,從而無法滿足語音識別的實時性需求。GPU、FPGA的價格又是阻礙其在終端語音識別中大規模應用的主要障礙。考慮到終端應用中,場景相對比較固定,且需要很高的計算性能,研發語音識別專屬晶片是終端語音識別硬體發展趨勢。

  • 啟英泰倫(ChipIntelli):2015年11月在成都成立。2016年6月推出了全球首款基於人工智慧的語音識別晶片CI1006,該晶片集成了神經網絡加速硬體,可實現單晶片、本地離線、大詞彙量識別,且識別率明顯高於傳統終端語音識別方案。另外,啟英泰倫能夠提供廉價的單麥遠場語音識別模組,其實際識別效果能夠媲美使用了科勝訊降噪模塊的雙麥模組,大幅度降低遠場語音識別模組成本。啟英泰倫在終端語音識別專用晶片發展上取得了明顯的技術及先發優勢。

  • MIT項目:MIT黑科技,即,MIT在ISSCC2017上發表的paper裡的晶片,該晶片能夠支持DNN運算架構,進行高性能的數據並行計算,可以實現單晶片離線識別上千單詞。

  • 雲知聲:雲知聲致力於打造「雲端芯」語音生態服務系統,其剛獲取3億人民幣的投資,將把部分資金投入到終端語音識別晶片「UniOne」的研發中,據報導,該晶片將會內置DNN處理單元,兼容多麥克風陣列。

過去幾十年,尤其是最近幾年,語音識別技術不斷取得突破。但是,在大多數場景下,語音識別遠沒有達到完美。解決遠場複雜環境下的語音識別問題仍然是當前研究熱點。另外,通常情況下,語音識別都是針對特定的任務,訓練專用的模型,因而,模型的可移植性比較差。

人類在對話過程中,可以很高效的利用先驗知識,但是目前的語音識別系統都還無法有效利用先驗知識。因此,語音識別還有很多問題待解決。令人興奮的是,隨著高質量數據的不斷積累、技術的不斷突破及硬體平臺算力的提升,語音識別正在向我們期待的方向快速發展。

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 基於片上系統SoC的孤立詞語音識別算法設計
    因此,為了滿足嵌入式交互系統的體積越來越小、功能越來越強的苛刻需求,語音識別片上系統SoC(System on Chip)應運而生。語音識別片上系統SoC本身就是一塊晶片,在單一晶片上集成了模擬語音模數轉換器ADC、數模轉換器DAC、信號採集和轉換、處理器、存儲器和I/O接口等,只要加上極少的電源就可以具有語音識別的功能,集成了聲音信息的採集、取樣、處理、分析和記憶。
  • 語音識別算法有哪些_語音識別特徵提取方法
    語音識別算法有哪些_語音識別特徵提取方法 網絡整理 發表於 2020-04-01 09:24:49   語音識別算法有哪些   本文列舉了幾種不同的語音識別算法
  • 基於C語言的設計流優化語音識別晶片結構設計
    據預測,市場對語音控制應用設備的需求將急劇增長,其推動力來自電話機市場。電話機將更多地採用語音命令進行控制。其他應用領域包括玩具和手持設備如計算器、語音控制的安全系統、家用電器及車載設備(立體聲、視窗、環境控制、車燈和導航控制)。本文從可復用和優化晶片空間的角度出發介紹語音識別晶片結構設計的種種考慮,其思路有利於開發一系列其它語音識別晶片。
  • 揭秘語音識別背後的技術,GPU集群+DNN算法
    首先,深度學習技術的再度崛起,正在顛覆統計模式識別、機器學習和人工智慧領域,相關專家成為「香餑餑」;其次,大數據目前已經和深度學習融合,在語音識別和圖像識別等感知人工智慧方面發揮了巨大的作用;最後,超算平臺是人工智慧的基礎,提供海量數據處理、存儲以及高性能運算解決方案。
  • 語音識別在生活中的七個經典應用
    語音識別技術就是讓機器通過識別和理解過程把語音信號轉變為相應的文本或命令的高技術。 語音識別技術主要包括特徵提取技術、模式匹配準則及模型訓練技術三個方面。
  • 生活中的七個語音識別經典應用
    打開APP 生活中的七個語音識別經典應用 佚名 發表於 2018-02-19 05:10:00 語音識別技術就是讓機器通過識別和理解過程把語音信號轉變為相應的文本或命令的高技術
  • 依圖科技入局語音識別,欲藉助高精確度算法促進行業透明化
    智能語音已然成為人工智慧細分領域中的一塊兵家必爭之地。12月11日,上海依圖網絡科技有限公司(下稱依圖科技)發布了依圖短語音聽寫算法(API),正式向語音識別進軍。依圖科技首席創新官呂昊在發布會上表示,雖然語音識別在日常生活中已得到一定規模的應用,但相關技術發展仍然不夠,未來還有十分巨大的發展空間。依圖成立於2012年,在人工智慧領域的主攻方向包括計算機視覺、自然語言理解、語音識別、人工智慧晶片。此前,這家「獨角獸」企業最為人所知的成就集中在人臉識別領域:今年6月份,依圖科技第二次獲得了NIST比賽人臉識別冠軍。
  • 達摩院發布業界首款語音合成算法專用AI FPGA晶片設計Ouroboros...
    AI語音FPGA晶片技術Ouroboros。阿里巴巴稱,這是業界首款專用於語音合成算法的 AI FPGA晶片結構設計,能將語音生成算法的計算效率提高百倍以上。根據阿里達摩院掃地僧的說法,用AI語音合成算法WaveNet生成1秒語音,CPU和GPU需要50秒的計算時間,但Ouroboros在FPGA環境下只要 0.3秒。
Ouroboros的一大突破,是用端上定製硬體加速技術替代雲端伺服器,避免了對網絡連接和雲端服務的強依賴性。
  • FinTech時代商業銀行智能語音識別技術應用與發展
    1.語音識別技術發展  語音識別技術按照發展和應用程度,可分為早期實驗研究階段、實用階段、現代語音識別系統開發應用階段。  (1)早期實驗研究階段  20世紀50年代,世界上第一個能識別10個英文數字發音的實驗系統在貝爾實驗室誕生;20世紀60年代,出現了動態時間規整(DTW)算法以及將語音信號以幀為單位切分的技術,實現了有效的語音特徵提取;20世紀80年代,識別算法從基於標準模板的方法轉向基於統計模型的方法,產生了基於高斯混合隱馬爾可夫模型(GMM-HMM)的聲學模型和以N元語法為基礎的語言模型
  • 基於HMM的連續小詞量語音識別系統的研究
    摘要:為了提高語音識別效率及對環境的依賴性,文章對語音識別算法部分和硬體部分做了分析與改進,採用ARMS3C2410微處理器作為主控制模塊,採用UDA1314TS音頻處理晶片作為語音識別模塊,利用HMM聲學模型及Viterbi算法進行模式訓練和識別,設計了一種連續的
  • 基於Cyclone II FPGA開發平臺實現語音識別算法程序的設計
    基於Cyclone II FPGA開發平臺實現語音識別算法程序的設計 瀋陽;馮良;洪誠 發表於 2021-01-12 10:21:38 SOPC可編程片上系統是一種獨特的嵌入式微處理系統。
  • 語音識別技術原理全面解析
    語音識別技術正逐步成為計算機信息處理技術中的關鍵技術,語音技術的應用已經成為一個具有競爭性的新興高技術產業。  動態時間規整算法(Dynamic Time Warping,DTW)是在非特定人語音識別中一種簡單有效的方法,該算法基於動態規劃的思想,解決了發音長短不一的模板匹配問題,是語音識別技術中出 現較早、較常用的一種算法。
  • 雲知聲IPO背後:AI語音算法+晶片雙賽道,如何做「第一個吃螃蟹的人」?
    2012年,雲知聲引入深度神經網絡(DNN),率先將其應用於商業語音識別系統,並圍繞其構建了國內首個永久免費的語音平臺,甚至還在年底上線了基於深度學習的語音識別雲服務。雲知聲的這次嘗試直接敲開了邁入行業的第一道大門,在隨後的算法演進過程中,雲知聲也持續將卷積神經網絡(CNN)、回歸神經網絡(RNN)、生成對抗網絡(GAN)等主流技術應用到商業實踐中,逐漸牢固自身的算法根基。
  • 從語音、視覺、語義到算法,百度大腦 5.0 全方位升級
    百度大腦 5.0 在算法突破、計算架構升級的基礎上,實現AI算法、計算架構和應用場景的融合創新,成為軟硬一體AI大生產平臺。下午百度大腦分論壇上,相關業務負責人分別詳細介紹百度大腦各能力具體的進展。語音識別及合成技術升級,推出遠場語音交互晶片百度語音技術部高級總監高亮介紹,識別方面,百度提出流式多級的截斷注意力模型SMLTA,這是國際上首次實現局部注意力建模超越整句的注意力模型,也是國際上首次實現在線語音大規模使用注意力模型。SMLTA在大幅提升識別速度的同時,也提高了識別準確率。
  • 人工智慧電視遠場語音設計
    摘要:本文介紹一種服務於人工智慧電視,實現遠場語音應用的麥克風陣列設計方案,闡述系統框架和硬體設計,同時介紹軟體設計的部分要點。通過麥克風陣列,協助語音增強算法的實現,達到遠距離拾音、回聲消除、聲源定位,滿足當前智能語音應用的需求。
  • 基於DSP的語音識別系統的實現及分析
    尤其在會話任務上,自動語音識別系統遠不及人類。因此,語音識別技術的應用已成為一個極具競爭性和挑戰性的高新技術產業。  隨著DSP技術的快速發展及性能不斷完善,基於DSP的語音識別算法得到了實現,並且在費用、功耗、速度、精確度和體積等方面有著PC機所不具備的優勢,具有廣闊的應用前景。
  • 利用MEMS麥克風陣列定位並識別音頻或語音信源的技術方案
    1.前言本文引用地址:http://www.eepw.com.cn/article/274814.htm  自動語音識別、語音模式識別和說話人識別及確認等應用對噪聲十分敏感,信源定位識別是音頻和語音信號捕捉處理應用的一個關鍵的預處理功能。
  • 語音識別技術簡史
    但是,語音識別自誕生以來的半個多世紀,一直沒有在實際應用過程得到普遍認可,一方面這與語音識別的技術缺陷有關,其識別精度和速度都達不到實際應用的要求;另一方面,與業界對語音識別的期望過高有關,實際上語音識別與鍵盤、滑鼠或觸控螢幕等應是融合關係,而非替代關係。深度學習技術自 2009 年興起之後,已經取得了長足進步。
  • ZLG深度解析:語音識別技術
    語音識別已成為人與機器通過自然語言交互重要方式之一,本文將從語音識別的原理以及語音識別算法的角度出發為大家介紹語音識別的方案及詳細設計過程。語言作為人類的一種基本交流方式,在數千年歷史中得到持續傳承。近年來,語音識別技術的不斷成熟,已廣泛應用於我們的生活當中。語音識別技術是如何讓機器「聽懂」人類語言?
  • 富迪科技推出MEMS麥克風傳感器和晶片套片提供語音接口整合方案
    富迪科技專注於語音技術開發應用已有15年以上,不僅在降噪算法上領先,而且在語音信號處理上有著舉足輕重的地位。全球領先五大手機廠商和主要筆記本廠商都認可富迪科技在語音處理技術上的品質,大而穩定的出貨量說明大廠對富迪的信賴。