8月18日,Google宣布開源Android語音識別轉錄工具Live Transcribe的語音引擎。
這家公司希望這樣做可以讓任何開發人員為長篇對話提供字幕,減少因網絡延遲、斷網等問題導致的溝通障礙。原始碼現在可以在GitHub上獲得。這意味著無論你是出國或是與新朋友見面,Live Transcribe都可以幫助你進行溝通。
交流時可以實時暢通(只要有網絡)
Google於今年2月發布了Live Transcribe。該工具使用機器學習算法將音頻轉換為實時字幕,與Android即將推出的Live Caption功能不同,Live Transcribe是一種全屏體驗,使用智慧型手機的麥克風(或外接麥克風),並依賴於Google Cloud Speech API。Live Transcribe可以用70多種語言和方言標題實時口語。另一個主要區別是Live Transcribe可在18億臺Android設備上使用(當Live Caption在今年晚些時候推出時,它只適用於部分Android Q設備)。
在雲上工作
Google的Cloud Speech API目前不支持發送無限長的音頻流。此外,依賴雲意味著網絡連接、數據成本和延遲方面都有潛在問題。
結果,語音引擎在達到超時之前關閉並重新啟動流請求,包括在長時間靜默期間重新開始會話並且每當語音中檢測到暫停時關閉。在會話之間,語音引擎還在本地緩衝音頻,然後在重新連接時發送它。因此,Google避免了截斷的句子或單詞,並減少了會話中丟失的文本量。
70多種語言和方言中挑選自己合適的
為了降低帶寬需求和成本,Google還評估了不同的音頻編解碼器:FLAC,AMR-WB和Opus。FLAC(無損編解碼器)可以保持準確性,不會節省太多數據,並且具有明顯的編解碼器延遲。AMR-WB可以節省大量數據,但在嘈雜的環境中準確度較低。
與此同時,Opus允許數據速率比大多數音樂流媒體服務低許多倍,同時仍保留音頻信號的重要細節。Google還會在長時間的靜音期間使用語音檢測來關閉網絡連接。
總體而言,該團隊能夠實現「在不影響準確性的情況下,將數據使用量減少10倍」。
為了比Cloud Speech API更進一步減少延遲,Live Transcribe使用自定義Opus編碼器。編碼器恰好提高了比特率,使「延遲在視覺上無法區分發送未壓縮的音頻」。
Live Transcribe語音引擎功能
Google列出了語音引擎的以下功能(不包括說話人識別):
無限流媒體。
支持70多種語言。
可以簡化網絡丟失(在網絡和Wi-Fi之間切換時)。文字不會丟失,只會延遲。
強大的擴展網絡損耗。即使網絡已經停電數小時,也會重新連接。當然,沒有連接就不能進行語音識別。
可以輕鬆啟用和配置Opus,AMR-WB和FLAC編碼。
包含文本格式庫,用於可視化ASR置信度、發言人ID等。
可離線模型擴展。
內置支持語音檢測器,可在延長靜音期間用於停止ASR,以節省資金和數據。
內置支持揚聲器識別,可根據揚聲器編號標記或著色文本。
字幕會隨著對話的深入而調整
該文檔指出這些庫與生產應用程式Live Transcribe中運行的庫「幾乎相同」。Google已對其進行了「廣泛的現場測試和單元測試」,但測試本身並非開源。但Google確實提供了APK,因此開發者可以在不構建任何代碼的情況下試用該庫。(雷鋒網(公眾號:雷鋒網)雷鋒網雷鋒網)
via:android.com venturebeat
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。