2016年,谷歌的人工智慧AlphaGo擊敗韓國的前圍棋世界冠軍李世石;2019年初,人工智慧AlphaStar在即時戰略遊戲《星際爭霸2》中以10:1擊敗多名人類職業選手;同年4月,人工智慧OpenAI Five 以一個乾淨利落的2:0戰勝DOTA2世界冠軍隊OG......
隨著人工智慧的水平不斷提高,一個又一個領域正被AI逐步攻克,越來越多的人開始擔憂,AI前進的步伐似乎無法阻止,早晚有一天,它會取代所有人類的工作,到時人類是否將面臨全員失業的窘境?
不得不說,這種擔憂不無道理,基於機器學習的人工智慧似乎無所不能,受限於當前的機械水平,除了大部分非重複性體力工作還難以勝任以外,在腦力勞動領域,AI大有席捲一切的氣勢,而在這之中,語言翻譯似乎是最容易被取代的工種之一。
前一段時間我去日本旅行,出發前,考慮到本人蹩腳的日語水平,找了半天最後在手機裡裝上了百度翻譯應用(百度打錢),事後證明,這玩意兒確實在很多場合大幅降低了溝通的成本,日常溝通翻譯的準確率接近100%,如此優秀的表現是我完全沒想到的。
當然,翻譯領域的細分類別很多,如筆譯、商務口譯、同聲翻譯等等,百度翻譯適合的場合僅僅是其中之一,不同細分方向對翻譯人員的要求各不相同。對於AI而言,我們可以從兩個維度來討論這個問題。
首先從翻譯流程來看,可以分為口譯和筆譯兩個部分,前者比後者多了一個語音解析的過程,目前的AI算法對於特定發音(主要為世界各主要國家政府規定的官方語言)的語音解析水平已經比較成熟,只要你的發音標準,解析的準確率還是非常高的。
反過來說,如果你的發音不標準,帶有濃重的地方口音,那結果可就不那麼樂觀了,很多人認為方言和官方語言僅僅是發音不同,一個發音的翻譯搞定了,其他發音就很簡單了。
然而現實卻沒有那麼美好,方言之所以只能成為方言,概因其缺乏規範,隨意性很高,AI很難找到統一的語法規律。並且即便是同一方言,往往相鄰地區還會細分出很多亞種,發音、語義、構詞等都會存在細微差別,這是現階段AI很難處理的情況。更為悲觀的是,支持單語種多種發音本身就又把翻譯難度提高了一大截,因為當你對著AI說話時,AI並不知道你說的是哪種方言,需要先在海量的方言資料庫中匹配,而不同方言之間很可能存在發音相近但內容大相逕庭的情況。因此,方言翻譯直到今天仍然是難以解決的問題,市面上有小部分產品支持個別方言交互,但識別速度和準確度都不高,難以普及。
說到筆譯部分,我們又可以從專業和日常兩大場合來看。專業領域主要涉及如學術論文、合同、法律法規等高度規範性場合,不僅用詞遣句要求嚴格,而且很少帶有感性色彩,因此內容歧義性極少,人要去背誦這些生澀詞彙非常痛苦,但對AI卻非常有利,而目前AI對此類內容的翻譯也確實已經達到一個很高的準確度,在未來兩三年內很有可能會對參與同類工作的人類就業產生威脅。
另外一大塊就是偏口語化的翻譯行業,例如外語導購、同聲傳譯、電影字幕等都屬於這個類別,這才是真正考驗AI翻譯的場合,對於AI而言,口語場合最大的挑戰是識別人的情緒和語調,同樣一句話,不同語調下,想要表達的含義可能天差地遠。
比如,中國人說「吃了嗎?」很可能只是一句問候,而不是邀請你去家裡吃飯。AI如果不能區分這類日常口語的真實含義,很容易導致溝通中的誤解。
另一個複雜得多的問題是上下文關聯,在人與人聊天時,基本模式是針對一件事互相多次溝通完善事件細節及看法,而目前的AI還很難做到,它只能對你說的最近一兩句話之間的關聯做出回應。
谷歌在去年演示了其最新的AI助手Duplex,從演示效果來看,Duplex已經部分解決了以上問題,首先,它不需要關鍵詞啟動對話(你好天貓),另外,它能夠記錄並分析之前多條對話內容,因而可以模擬人類對話中對同一件事進行不斷深入的細節確認。
不過直到今天,Duplex仍然只支持英文,在美國才能使用,要在語法更複雜的中文環境下對答如流,似乎還有很長的路要走。而且更重要的是,Duplex仍然只是對需求回應做出的一次突破性嘗試,它依然無法體會人類的情緒和語調對實際表達內容的影響。
無論如何,AI翻譯要全面取代人類翻譯還是很不靠譜的事情,至少在最近十年內,除了少部分語法要求嚴格的專業領域,人類翻譯們還不太需要擔心被取代的問題,並且,語言是人與人之間情感交流最有力的工具,即便未來有一天AI真的能明白你說的每一句話,它也無法取代你和另一個人面對面的直接溝通不是麼。