2020科大訊飛全球1024開發者節今天正式拉開帷幕,伴隨著AI的發展,我們得以更全面和細緻地洞察人們的生活習慣,並為人們提供更加智能和便捷的服務。在人工智慧的應用場景中,最重要的一個就是語音交互。針對這一點,科大訊飛AI研究院常務副院長劉聰做了細緻的講解,讓我們對當前語音交互技術有了更清晰和深入的了解。
科大訊飛AI研究院常務副院長--劉聰
我們知道語音識別是訊飛的傳統強項,從早期的呼叫、導航到2010年發布的訊飛超腦語音雲和輸入法,從而開啟了中文語音輸入的新時代。通過深度學習等框架持續的迭代效果,我們又陸續推出了方言識別、遠場交互、多麥克風陣列等相關的功能。2015年,我們又將人機互動的場景拓展到人人對話的場景。為此我們總結出三點,我們將語音聽寫從簡單場景的可用做到了通用。這種場景的好用,語音轉寫從原來的不好用,做到了像演講、會議、庭審等很多複雜場景的好用。像語音控制、命令喚醒,我們也是從簡單場景的可用,做到了複雜場景的好用。
隨著現在語音識別在更多場景的應用,語音識別的下一步發展方向是什麼?又有哪些技術可以從實驗室場景走向成熟,還有哪些價值得我們發掘?
首先,我們認為語音識別需要持續的去挑戰更加複雜的場景,去實現從語音到聲音,從單純的文字內容識別到音頻的全場景解析。例如現在我們在泛娛樂當中,直播、短視頻,我們可以看到這裡面有很多的更加複雜的聲音場景需要我們去解決。例如在直播的過程中,背景可能是複雜多樣的,可能有視頻聲、遊戲聲或者音樂聲。此外直播連麥的時候還會經常出現多人混疊的對話,這些對我們的語音識別都會有很大的影響。除此之外,這些視頻當中還會包含像笑聲、掌聲、各種音效等聲音,所以我們需要提出一些新的方案。當前的框架已經難以去解決這樣一個複雜的問題。
針對這樣一個場景,我們一方面需要降低各種背景的噪聲對識別精度的影響。另外一方面,要有針對性的將我們感興趣的聲音提取出來。這裡我們也是展示了全場景音頻解析的整體方案。首先我們是通過多解析度特徵提取的聲音檢測方案,再結合我們的序列訓練,對一些相似聲音進行精細建模,可以實現將笑聲、音效等非語音的聲音和語音內容分離。針對包含語音的有效內容,我們也使用了語音降噪和分離的方案,綜合利用我們的聲音、文本、說話等信息,以及在有條件的情況下,還可以使用多模態的唇形、視線以及麥克風陣列的空間位置等信息來進行聯合建模。以上這些才能保證我們能夠持續保持語音合成以及語音識別技術的領先。
與此同時,我們也和合作夥伴一起,不斷提升在直播等複雜場景上的語音識別效果,並且準確率從60%提到了85%。未來我們相關的技術也會在我們的開放平臺——訊飛聽見等上線。未來,我們會做得更好,請大家繼續期待。
本文屬於原創文章,如若轉載,請註明來源:科大訊飛劉聰:如何持續保持語音識別技術的領先http://dcdv.zol.com.cn/754/7548950.html
http://dcdv.zol.com.cn/754/7548950.html dcdv.zol.com.cn true http://dcdv.zol.com.cn/754/7548950.html report 2300 2020科大訊飛全球1024開發者節今天正式拉開帷幕,伴隨著AI的發展,我們得以更全面和細緻地洞察人們的生活習慣,並為人們提供更加智能和便捷的服務。在人工智慧的應用場景中,最重要的一個就是語音交互。針對這一點,科大訊飛AI研究院常務副院長劉聰做了細...