張霄軍 邵璐 | 構建可信賴機器翻譯系統的基本原則 ———一種基於工程倫理的觀點

2021-02-19 外國語文

張霄軍,男,西交利物浦大學翻譯系助理教授,博士,博士生導師,主要從事翻譯技術、技術倫理及自然語言處理等研究。 

邵璐,女,中山大學外國語學院教授,博士,博士生導師,博士後合作導師,主要從事翻譯理論、翻譯批評及翻譯技術研究。

本文載《外國語文》2021年第1期

學術前沿專欄

摘 要:人工智慧和機器翻譯的工程倫理是對人工智慧和機器翻譯產品或者系統設計和研發過程中所涉及的道德價值、問題和決策的研究。本文分析工程倫理學在人工智慧產品和機器翻譯系統研發過程中的主要問題,並在美國谷歌公司和歐盟委員會先後發布的人工智慧的技術倫理準則基礎上總結了實現可信賴的機器翻譯系統的七個基本原則。這七個原則基本涵蓋了機器翻譯產品和系統在設計與研發過程中所涉及的主要工程倫理問題,同時也認為,「人工翻譯能否被機器翻譯所取代」這樣的問題需要釐清機器翻譯的工程倫理問題之後才能展開全面、系統的討論。 

關鍵詞:人工智慧;機器翻譯;工程倫理

問題的產生

近年來,面對人工智慧和機器翻譯所取得的突出進步,尤其是神經網絡機器翻譯在機器翻譯譯文的可讀性方面大幅提高,這就使得高校翻譯專業不得不面對這樣一個問題:人工智慧時代翻譯專業該怎麼辦?其實,這是一個市場「倒逼」的提問,比這個問題更加尖銳的問題是:翻譯專業會不會消亡? 機器翻譯是否會取代人工翻譯?

「機器翻譯與人工翻譯」的問題在 2014 年德國柏林召開的第 20 屆世界翻譯大會上得以顯化,該屆大會的主題就是「人工翻譯還是機器翻譯? 翻譯工作者與術語學家的未來」 (Man vs. Machine? The Future ofTranslators, Interpreters and Terminologists),自此拉開了翻譯研究技術轉向的序幕(張霄軍 等,2014)。之後機器翻譯甚囂塵上,翻譯「大事件」層出不窮,如百度機器翻譯 2015 年正式上線神經網絡機器翻譯系統並獲得國家科學技術進步獎二等獎、谷歌於 2016 年發布神經網絡機器翻譯引擎、2017 年微軟翻譯發布神經網絡機器翻譯系統、2018 年博鰲論壇騰訊同傳登臺亮相、科大訊飛宣稱 2019 年其語音翻譯將達到「專業八級」水平,等等。然而,我們發現,引領上述「大事件」的大都是機器翻譯公司或者人工智慧企業,韓林濤(2019)認為由於商業炒作而產生的斷言「以偏概全、誇大事實」,但不得不承認我們已經來到一個「無技術不翻譯」的時代(任文,2019)。這也引發了學術界對該論題的憂思與爭論。蔡基剛(2020)認為「隨著機器翻譯時代的到來,高校翻譯專業必然走向消亡」,他認為「技術文本和政治文獻的機器翻譯替代人工翻譯在未來幾年就可以實現」;李長栓(2019)則認為「要想通過機器翻譯,實現自然語言的處理,恐怕還有很長的路要走;也許永遠沒有實現的一天」;祝朝偉(2018)直接斷言「機器取代人不過是不證自明的偽命題」。陳偉(2020)從機器翻譯對譯者主體性結構說明「機器翻譯無法完全取代人工翻譯」;劉和平和梁爽(2019)則提出翻譯的教與學應該「擁抱技術」,而不是畏懼和排斥技術。

其實,無論是「人工智慧時代翻譯專業最終走向消亡」還是「機器翻譯會取代人工翻譯」,真正從事機器翻譯研發的科學家很少提出這樣的論斷。對於機器翻譯研發者而言,機器翻譯系統的開發與應用是一項系統工程,任何未經檢驗的論斷都會涉及人工智慧和機器翻譯技術的工程倫理問題。正如王華樹(2020)在回答《翻譯技術 100 問》中「機器翻譯是否會取代人類譯員?」這個問題時所言:「機器翻譯目前還存在著許多技術和倫理層面的問題,同時也給人類帶來了新的機遇。」目前討論人工翻譯能否被「取代」為時尚早,我們應該儘快釐清的是機器翻譯的工程倫理問題。

工程倫理是對在工程實踐中涉及的道德價值、問題和決策的研究(李世新,2010)。也就是研究如何開發對人類有用卻不會傷害人類的系統,系統開發過程中如何保護隱私,如何確保系統安全性和魯棒性,等等。機器翻譯技術是用計算機來模擬人的翻譯能力,是人工智慧技術的一個重要分支,兩者「本是同根生,在發展過程中幾經浮沉,同甘苦共命運,它們之間存在著密切的聯繫」(馮志偉,2018)。因此,人工智慧從業者所面臨的工程倫理問題同時也是機器翻譯研發者所面臨的工程倫理問題,兩者並無二致。鑑於機器翻譯和人工智慧在各自發展歷程中具有相似的特徵以及人工智慧專家和機器翻譯工程師在職業發展中的雷同性,我們將這兩者的工程倫理問題歸併到一起進行討論。人工智慧和機器翻譯技術的工程倫理指的是人工智慧和機器翻譯系統或者產品在設計、研發過程中所產生的倫理問題。

1. 1 工程倫理的制度化建設問題

在制度化建設方面,一個直接相關的就是職業註冊制度問題。人工智慧行業從業者和機器翻譯研發者應不應該註冊某種職業資格,要獲得何種職業資格證,目前尚無討論。在美國和英國,目前推行的是職業工程師執照制度,要求工程師申請職業工程師執照(professional engineer,簡稱 P. E. 執照)。在我國推行的是國家職業資格證書制度,規定「對從事技術複雜、通用性廣、涉及國家財產、人民生命安全和消費者利益的職業(工種)的勞動者,必須經過培訓,並取得職業資格證書後,方可就業上崗」。然而,在人力資源社會保障部印發的《關於公布國家職業資格目錄的通知》公布的 140 項國家職業資格目錄中,對人工智慧從業者和機器翻譯研發者並無明確規定。這意味著大多數人工智慧和機器翻譯工程師無法以可能會被吊銷資格證的方式來抵制參與不遵守倫理道德的行為。

制度化建設的第二個方面是工程社團和社團倫理章程的制定。在促進工程倫理的建設中,工程社團應起怎樣的作用? 對此,學術界有不同的看法。比較一致的觀點:(1)社團是探討技術爭論和倫理紛爭的最好的場所;(2)職業社團應當促進而不是實施工程倫理建設。工程社團通常會制定行業的倫理章程來確立工程師應關注的主要的倫理領域。然而,對於章程的性質和功能卻存在著爭議。中國人工智慧學會、中國中文信息學會和中國翻譯協會是三個在民政部註冊的一級學會,也就是我國人工智慧從業者和機器翻譯研發者賴以解決倫理紛爭和制定倫理章程的工程社團。然而,對於並不隸屬於上述任何一家社團的從業者,倫理章程所包含的標準、規則、原則和理念是否同樣適用呢?

制度化建設的第三個方面是工程倫理教育問題,即工程倫理在學科體系中的地位問題,目前能夠達成共識的是工程倫理教育是工程教育的一部分。此外,馮志偉(2005)論證了自然語言處理是一個多邊緣的交叉學科,機器翻譯是自然語言處理的一個任務。那麼人工智慧和機器翻譯技術的工程倫理應該納入工程學工科學科體系還是語言學/ 翻譯學文科學科體系? 如何將工程倫理的內容融入現有的教育體系中? 有無開設相應必修課或者選修課的必要,還是不單獨開設倫理課程而要求在授課內容中包含倫理的內容?

 1.2工程師的責任和義務問題

20 世紀 70 年代之前,大多數的工程倫理章程認為,工程師的首要義務是對客戶或僱主的忠誠,而很少提到對公眾所承擔的義務。1974 年,美國職業發展工程理事會( Engineering Council on ProfessionalDevelopment,ECPD)採用了一項新的倫理章程,該章程認為,工程師的最高義務是公眾的健康、福祉與安全。現在,幾乎所有的章程都把這一觀點視為工程師的首要義務,並稱之為「首要條款」。當工程師發現首要條款被違反時,舉報在道德上應該是必需的,或至少是允許的。這其中當然有商業利益的考量,利益衝突是近年來頗受關注的話題。某些職業利益會威脅一個人的職業判斷從而使其判斷變得不可靠,或者與人們所期待的相比變得不容易讓人們信服。儘管機器翻譯研發者不能確定其研發的系統能否實用,可一旦資本湧入想要商業化其系統,很難有研發者拒絕如此豐厚的商業利潤,甚至會為系統商業化而沾沾自喜,並以此高估其系統性能。

1. 3 工程活動與社會政策問題

工程活動對環境的影響已得到普遍認同,但對於工程師對環境是否應承擔責任以及這種責任的基礎和範圍是什麼,仍存爭議。其中一個核心問題是,是否只有當人類的健康和福祉受到明顯威脅的時候接受對環境的責任才是充分的,或者說,是否應該出自環境自身的原因而關注環境。人工智慧和機器翻譯等信息技術產業看起來貌似是對環境不會產生太大影響的綠色產業,然而隨著人們駕馭信息技術能力的增強和公眾對人工智慧產品的依賴,人類賴以生存的生態環境、工作環境和家庭環境都在發生深刻的變化。以機器翻譯為例,隨著語音識別技術和機器翻譯質量的提高,一種全新的會議口譯新模式正在形成。新模式下,口譯員更加「隱身」,取而代之的要麼是口譯員語音即時轉寫後以字幕的形式投射到會場的大屏幕上或者聽眾席的小屏幕上,要麼是發言者語音即時轉寫後經機器翻譯將翻譯結果以字幕的形式投射到屏幕上。這就需要給會場增加投影和屏幕,聽眾席上也要增加可視設備,如此會議口譯會場的生態環境就會發生了改變。隨著 5G 網絡的普及,網際網路數據傳輸的容量越來越大,傳輸速度越來越快,這就使得遠程即時翻譯,尤其是遠程口譯成為現實,口譯員的工作環境發生變化。藉助自動口譯設備和機器翻譯系統,不同國度交流越來越便利,國際家庭的組建也越來越多,家庭成員之間的溝通也越來越依賴自動口譯設備,家庭環境也在悄然發生變化。同時,人工智慧驅動翻譯模式轉向眾包,基於網絡的眾包翻譯模式的興起也「重寫」了翻譯倫理。上述因機器翻譯技術而發生變化所帶來的環境倫理問題鮮有討論。

馬丁(M. W. Martin)和欣津格(R. Schinzinger)認為工程是一種「社會實驗」,這種實驗給「實驗」的對象(公眾)帶來了一定的風險(李世新,2010)。然而,什麼是可接受的風險? 誰來確定這種風險? 翻譯客戶能否接受機器翻譯系統所產生的譯文? 在多大程度上採用機器的譯文? 機器翻譯譯文質量到底如何? 如果因機器翻譯的譯文質量造成了交際失誤或者交易失敗,機器翻譯譯文提供者和機器翻譯譯文使用者誰該承擔主要責任? 供應商傾向於功利主義,通過可能性的產物和傷害的大小來定義風險,他們認為,如果潛在的收益超過了潛在的危害,那麼這種風險就是可接受的。但是,公眾卻試圖將可接受風險、自由和知情同意以及風險和收益的合理分配聯繫起來。在這種實驗性的社會活動中,工程師們又該如何去確定和規避實驗風險?

工程活動是一種職業行為,什麼樣的職業行為是社會所期待和所信賴的? 我們之所以會向醫生毫無隱瞞地坦陳病情是因為我們信賴醫生;我們之所以會心安理得地住在高樓大廈中是因為我們信賴建造工程師。那麼,公眾會像信賴醫生和建造師那樣信賴人工智慧產品和機器翻譯系統嗎? 怎樣的職業倫理準則才能滿足(或符合)這種社會所給予的信賴呢? 對社會而言的職業信賴對於建設和諧社會是必不可少的。遺憾的是,這些問題至今尚未得到充分研究。

2018 年 6 月 7 日,谷歌(Google)發布了七條人工智慧應用的「倫理原則」,包括:(1)對社會有益(Besocially beneficial);(2)避免製造或強加不公平的偏見 (Avoid creating or reinforcing unfair bias);(3)提前測試安全性(Be built and tested for safety); (4) 對人類負責( Be accountable to people); ( 5) 保證隱私(Incorporate privacy design principles);(6)堅持科學高標準(Uphold high standards of scientific excellence);(7)從主要用途、技術獨特性發展(Be made available for uses that accord with these principles)。

無獨有偶,2019 年 4 月 8 日,歐盟委員會發布了《可信賴人工智慧的倫理準則》 (Ethics Guidelines forTrustworthy AI),報告提出了四項倫理準則:

(1)尊重人的自主性(Respect for human autonomy)。人工智慧系統不應該脅迫、欺騙和操縱人類。相反,人工智慧系統的設計應該以增強、補充人類的認知、社會和文化技能為目的。人類和人工智慧系統之間的功能分配應遵循以人為中心的設計原則,而且人工智慧系統的工作過程中要確保人的監督。人工智慧系統也可能從根本上改變工作領域。它應該在工作環境中支持人類並致力於創造有意義的工作。

(2)預防傷害(Prevention of harm)。人工智慧系統不應該引發、加重傷害,或對人類產生不好的影響。因此需要保護人類的尊嚴和身心健康。人工智慧系統和運行的環境必須是安全的。因此要求技術上必須是魯棒的,而且要確保人工智慧技術不會被惡意使用。尤其要注意可能會惡意使用該技術的人和可能會造成不良影響的應用場景。

(3)公平性(Fairness)。人工智慧系統的開發、實現和應用必須是公平的。雖然對公平性可能會有不同的解讀,但是應當確保個人和組織不會受到不公平的偏見、歧視等。如果人工智慧系統可以避免不公平的偏見,就可以增加社會公平性。為此,人工智慧系統做出的決策以及做決策的過程應該是可解釋的。

(4)可解釋性(Explicability)。可解釋性對構建用戶對人工智慧系統的信任非常關鍵。也就是說整個決策的過程、輸入和輸出的關係都應該是可解釋的。但目前的人工智慧算法和模型都是以黑盒(black box)的形式運行。谷歌公司和歐盟委員會發布的上述人工智慧倫理準則為突飛猛進的機器翻譯技術發展提供了工程倫理借鑑。基於此,我們總結了實現可信賴的機器翻譯系統的七個關鍵原則。

3. 1 人本性(Human Centricity)

人工智慧系統應通過支持人的能動性和基本權利以實現公平社會,而不是減少、限制或錯誤地指導人類自治。機器翻譯也不可以脫離人的監督直接去實現語碼自由轉換。事實上,ALPAC 報告之後,機器翻譯研究已經放棄了「全自動高質量機器翻譯(Fully Automatic High Quality Machine Translation, FAHQMT)」的企圖,轉而向「人助機譯(Human-aided Machine Translation, HAMT)」或「機助人譯(Machine-aided HumanTranslation, MAHT)」方向發展。近年來,隨著統計機器學習和深度學習技術在機器翻譯中的廣泛應用,系統運算能力的增強和訓練語料的不斷豐富,機器翻譯質量得到了大幅提升,「機器翻譯替代人工翻譯」的論斷才有了傳播的基礎。然而,此類武斷的說法大多來自市場宣傳而非出自系統研發人員之口,但普通用戶並不知其所以然,所以在一定程度上迷惑了消費者,造成大眾對機器翻譯不切實際的期望,產生了不良後果。人類的監督可以幫助確保機器翻譯系統不影響人類自主或產生不良後果。監督可以通過不同的管理機制來實現,包括 human-in-the-loop(HITL)、human-on-the-loop(HOTL)、human-in-command(HIC)等方法。根據機器翻譯系統應用領域和潛在的風險,可以實現不同程度的監督機制以支持不同的安全和控制措施。

3. 2 魯棒性 (Robustness)

可信賴的人工智慧系統的關鍵部分就是技術魯棒性,這與歐盟委員會發布的《可信賴人工智慧的倫理準則》中的預防傷害原則是緊密相關的。技術魯棒性要求算法足夠安全、可靠和穩健,以克服人工智慧系統所有生命周期階段的錯誤或者不一致。機器翻譯系統應該防止被黑客攻擊或出現可以被攻擊的漏洞。黑客攻擊可能是針對翻譯或者語言模型的、也可能是針對訓練數據的、也可能是針對底層基礎設施的,包括軟體和硬體。如果機器翻譯系統被攻擊,其中的數據和系統行為可能會被修改,導致系統產生不同的翻譯結果。機器翻譯系統應該有出現緊急情況的備用方案———機器翻譯系統可能從基於統計的決策轉為基於規則的決策,或者要求詢問人工譯員才可以繼續(計算機輔助翻譯或者交互式機器翻譯),必須保證系統所做的一切都不會對用戶造成傷害。良好的機器翻譯系統開發和譯文質量評估過程可以支持、緩解和糾正出現不準確的機器譯文及其所帶來的潛在風險。如果偶爾不準確的譯文不可避免,那麼系統應該要能計算這種錯誤情況發生的概率。在可能會對人類生命安全帶來影響的機器翻譯系統中,譯文準確度的要求是非常重要的,比如在衛生健康領域和刑事司法領域的應用。

3. 3 私密性(Confidentiality)

人工智慧系統必須確保系統的整個生命周期內部都要確保隱私和數據保護,這既包括用戶提供的信息,也包括用戶在和系統交互過程中生成的信息。用於機器翻譯系統訓練和測試所用的數據不會被用來傷害或歧視數據的所有者和用戶,同時要確保收集的數據不會用於非法地或不公平地歧視用戶的行為。訓練語料(數據集)的質量對機器翻譯系統的性能非常關鍵(劉群,2003),但特定機器翻譯系統開發(如對話機器翻譯)收集的數據可能是含有偏見的、不準確的、有錯誤的。這些數據在訓練之前要進行清洗,去除這些有偏見的、不準確的、有錯誤的數據,但同時又要確保數據的完整性,如在對話機器翻譯系統中,就要完整保留說話者信息(Wang et al. , 2017)。如果說話者信息必須保密,那就需要對語料進行脫敏處理,比如用特定標記標註說話者信息等。如果給機器翻譯系統的訓練數據是低質量的甚至是惡意的,就可能會改變機器翻譯系統的整體性能。因此,在規劃、訓練、測試和實現的整個過程中都要對數據集進行測試和處理。系統在處理數據時,都會用到管理數據訪問的數據協議,該協議應該列出誰以及什麼情況下可以訪問數據。

3. 4 可解釋性(Explicability)

人工智慧系統應確保相關元素的可追溯性,包括數據、系統和商業模型。因此,機器翻譯系統產生決策使用的數據集和過程也都應該記錄下來以備追溯,並且應增加透明性,具體包括收集的數據和算法使用的數據標記。可追溯性在機器翻譯系統中通常被稱為可解釋性。可解釋性就是要解釋機器翻譯系統的技術過程和相關的決策過程。技術可解釋性要求機器翻譯所產生的譯文是可以被人們所理解的。在機器翻譯系統會對人類的生活造成重大影響時,就需要機器翻譯系統的決策過程有一個合理的解釋。此外,人類有權知道與其直接進行對外交流的是譯員還是機器翻譯系統,這就要求機器翻譯系統可以被識別。出現譯文質量糾紛時,要能明確權責,讓客戶知曉誰該為翻譯服務負責,誰又該為譯文質量負責。

3. 5 公平性 (Fairness)

人工智慧系統應考慮人類能力、技能和要求的總體範圍,並確保可接近性。該要素與歐盟委員會發布的《可信賴人工智慧的倫理準則》中的公平性原則是緊密相關的。因此,機器翻譯系統所使用的數據集會不可避免地存在歧視、不完整和管理不當等問題。這類數據集的歧視可能會造成機器翻譯系統的針對特定人群或個人的歧視。機器翻譯系統開發的方式也可能會出現不公平的歧視問題,可以通過一種明確的、透明的方式來分析和解決系統的目的、局限性、需求和決策。尤其在垂直領域,機器翻譯系統可能是以用戶為中心的,以一種允許所有人都平等地使用機器翻譯產品和服務的方式,即無論年齡、性別、能力和其他特徵,因此針對殘障人士的輔助功能就顯得格外重要,特別是在口語機器翻譯系統研發中。因此,機器翻譯系統的設計不應該採用一種通用的設計,為了開發出可信賴的機器翻譯系統,建議對受系統直接或間接影響的利益相關方進行諮詢。

3. 6 可復現性(Replicability)

可復現性指人工智慧專家要能夠準確地描述人工智慧系統的行為和公開實驗方法、算法和數據,方便其他人工智慧研發者進行驗證和再次實現。人工智慧系統的結果必須是可復現的和可靠的,要對人工智慧系統進行詳細檢查以防產生意外。機器翻譯系統的復現依賴譯文評價機制和系統代碼與數據開源情況。評價可分為人工評價和機器自動評價,前者可解釋性強但耗時費力花錢,後者快速方便但可解釋性較差。如何設計和開發一個客觀科學的機器翻譯譯文評價系統是目前制約機器翻譯發展的一個瓶頸。系統代碼和數據開源在機器翻譯研究中做得相對成熟,Github等平臺為代碼和數據開源提供了足夠的空間,arxiv等網站為科研產出評價和共享提供了共享和同行評審的平臺。同行評審包括對研究算法、數據和設計過程的評估,也包括對研究實驗的復現結果。

3. 7 可持續性 (Sustainability)

人工智慧系統具有積極促進社會變革、增強可持續性生態之責任。一般情況下,人工智慧系統大都是為了解決一些迫在眉睫的社會難題,同時又要保證儘可能以環境友好型的方式出現。因此,機器翻譯系統的開發、實現和使用過程,以及整個供應鏈都應該進行這方面的評估。同時,機器翻譯系統在社會生活各領域的應用,可能會改變我們對社會機構的理解,影響我們的社會關係。機器翻譯在增強我們的社交技能的同時,可能也會減弱我們的社交技能,會對人們的身心健康帶來影響。機器翻譯在翻譯教學和二語寫作教學領域也會產生爭議,並日漸影響學生的翻譯和寫作習慣。同時要考慮評估機器翻譯應用對民生、社會的影響,因為機器翻譯系統極有可能應用於政治決策和外交內聯等的政治進程之中(傅瑩,2019)。

技術可以被理解為廣義的技術———一種旨在控制自然(和人類)的方法,這種方法奠基於一套嚴格、客觀中立的方法之上,將所處理的對象一律視為僵化的客體。然而,我們不能簡單地拒絕現代技術。首先這是不可能的,我們已然生活在現代技術之中,我們對生活的理解都深深地涉及技術。其次,這也是不可逆的,因為放棄技術意味著放棄技術為我們帶來的巨大福利。我們需要的首先是發展技術,其次是遏制技術的發展。如何遏制? 這就需要倫理學的規範和約束。工程倫理學的產生促進了安全和有用的技術產品並給工程師的努力賦予意義,也直接地增強工程師在工程中有效地處理道德問題複雜性的能力,增進工程師的道德自治,即理性地思考以道德關注為基礎的倫理問題之習俗與技能。越來越多的技術研究者和應用者,尤其是人工智慧技術應用領域的專家開始意識到倫理的重要性。谷歌公司和歐盟委員會發布的準則就是負責任的人工智慧產業代表和有擔當的政府部門對此發出的積極響應。在學術界,斯普林格出版社(Springer-Verlag)正 在 編 輯 出 版 「 工 程 技 術 哲 學」 系 列 叢 書 ( Series of Philosophy of Engineering andTechnology),目前已出版《技術的規範》(Norms in Technology)、《技術為善》(Doing Good with Technologies)等32 部著作。在自然語言處理領域、技術倫理和工程倫理的探討也逐步深入。目前已經連續召開了兩屆以「自然語言處理的倫理」(Ethics in Natural Language Processing,EthNLP)為主題的國際研討會,第一屆 2017年在西班牙瓦倫西亞召開,第二屆 2018 年在美國紐奧良市召開。

在國內,對機器翻譯的過度宣傳一方面引發了行業對這一技術應用的憂思,另一方面也催生了一些學者對機器翻譯技術倫理學的探討。討論人工翻譯能不能被機器翻譯所取代的基礎是機器翻譯的工程倫理,如果沒有釐清機器翻譯的技術和工程倫理的框架,任何與之相關的斷言都是不可信的。2018 年在北京召開的「首屆語言智能與社會發展論壇」上,與會專家集體通過了《語言智能與外語教育協同發展宣言》。宣言稱:「機器翻譯等語言智能技術的發展和實踐,不應也不可能謀求全面替代人類的外語能力,在公共宣傳、科普演示中,語言智能學界和產業界應當實事求是地報告語言智能的發展現實,不誇大語言智能技術的現有性能,不做缺乏科學依據的展望,不能對人類的外語工作造成恐慌,不能對人類的外語事業規劃造成形勢誤判。」因此我們也呼籲更多的仁人志士加入機器翻譯/ 翻譯技術倫理探討之中,期盼語言智能界、倫理學界及社會有關學界能成立「語言智能倫理委員會」,保證語言智能在符合人類倫理的框架內發展。

說明:

1.因平臺版式限制,本文省略了英文摘要和參考文獻,全文請於cnki下載。

2.轉載事宜請聯繫:longdan@sisu.edu.cn。

相關焦點

  • 應用需求提升,如何更好地構建垂直領域機器翻譯系統
    從數據加工角度來構建垂直領域機器翻譯系統上文提到的一點,由於通用領域機器翻譯品質滿足不了用戶需求,需要提供個性化定製服務,幫助用戶構建自己的垂直領域機器翻譯系統。本文簡單討論一下如何從數據加工角度來構建垂直領域機器翻譯系統。神經機器翻譯系統構建屬於數據驅動的機器學習方法,需要大規模雙語句對數據來完成模型訓練過程。
  • 如何構建基於機器學習的入侵檢測系統
    因此機器學習在信息安全也正扮演著日益重要的角色。通過本文 peerlyst 的讀者不但能探索機器學習技術的基本原理還能進一步親手體驗如何從零開始,通過前沿技術,代碼庫和能公開獲取的數據集來構建一個真實的入侵檢測系統。我們也提供了有用的附件來幫助你更方便的選擇機器學習的算法。
  • 如何評價Google神經機器翻譯(GNMT)系統?
    (GNMT:Google Neural Machine Translation)系統,在官方博客中Google稱該系統使用了當前最先進的訓練技術,能夠實現到當下機器翻譯質量上最大的提升。其中,Google Translate的核心技術 「統計機器翻譯」其基本思想是通過對大量平行語料進行統計分析、構建統計翻譯模型、進而使用此模型進行翻譯。簡單來說,Google Translate 在生成譯文時,會在大量人工翻譯的文檔中查找各種模型,進行合理的猜測,從而得到恰當的翻譯。
  • 翻譯哪家強?當人工翻譯遇到機器翻譯……
    我國著名計算語言學家、術語學家和機器翻譯專家,曾任中國語文現代化學會副會長、中國人工智慧學會理事。劉群:博士,華為諾亞方舟實驗室語音與語言計算首席科學家,中國科學院計算技術研究所智能信息處理重點實驗室自然語言處理研究組組長,研究員,博士生導師,中國科學院大學兼職教授。
  • 教育人工智慧倫理問題與倫理原則探討
    因此,在構建教育人工智慧的過程中,需要同時考慮系統創建者、教師、學生和監測員等利益相關者的倫理問題。1. 系統創建者倫理問題教育人工智慧的創建者包括系統設計師、軟體架構師、程式設計師等設計開發人員。他們在設計、開發教育人工智慧的過程中,需要在綜合考慮其教學應用效果的同時,兼顧教師和學生的利益。
  • 超星爾雅工程倫理答案-學習通工程倫理
    3目前,中國工程運行的基本模式是()。()CA、工程是指將科學知識系統地運用於結構和機器的設計、創造、使用中,B、工程是將自然科學的原理應用到工農業生產部門中去而形成的各學科的總稱。C、工程是一種實踐性研究,研究如何利用各種科學方法使得人和物以及環境以更健康、更安全、更高效的方式相結合,從而賦能個人,促進社會的福祉。
  • 工程倫理01講:課程簡介、工程與倫理
    適用工程領域:所有工程領域三、課程內容簡介全國工程碩士專業學位教育指導委員會推薦教材《工程倫理》(第二版)(清華大學出版社 2019 年出版)1)"通論":主要探討工程倫理的基本概念、基本理論問題,以及工程實踐過程中人們將要面對的共性問題。第 1 章:分析工程和倫理的概念,工程實踐中的倫理問題,以及處理工程倫理問題的基本原則。
  • 谷歌開放GNMT教程:如何使用TensorFlow構建自己的神經機器翻譯系統
    選自谷歌機器之心編譯參與:機器之心編輯部近日,谷歌官方在 Github 開放了一份神經機器翻譯教程,該教程從基本概念實現開始,首先搭建了一個簡單的NMT模型,隨後更進一步引進注意力機制和多層 LSTM 加強系統的性能,最後谷歌根據 GNMT 提供了更進一步改進的技巧和細節
  • 「蒙漢在線機器翻譯系統」 取得階段性成果
    9月16日,2017年度內蒙古自治區蒙古語言文字信息化專項扶持重點項目——融合大數據與多語言開放域的蒙漢文知識圖譜構建及其應用技術共享服務平臺論證會在呼和浩特民族學院召開。 會上,該項目主要技術開發人烏格德勒博士對項目的階段性成果「蒙漢在線機器翻譯系統」進行了現場演示,並闡述了系統的相關技術。
  • 機器翻譯來了!
    是否能夠不通過專業翻譯,不用學習其他語言,直接使用母語就能讓講不同語言的人們自由交流呢?實現不同語種之間的無障礙溝通,一直都是人類終極夢想之一。早在1933年,法國工程師阿爾楚尼就萌生了機器翻譯的設想,並獲得一項翻譯機專利。什麼是機器翻譯呢?就是使用計算機把一種語言翻譯成另一種語言的一門學科。
  • 谷歌的神經翻譯系統意味著機器翻譯到盡頭了?
    第三就是機器翻譯在技術實際上是通用的,其實它是個一般性的原理,可以放到很多的領域,所以我會講應用拓展,用計算機自動創作古詩為例。後面是幾句結束的話。谷歌前幾個月發布了新的機器翻譯系統,這個系統實際上是完全基於深度神經網絡的一個系統。
  • 工程倫理複習資料
    ,處理工程中倫理問題要堅持以下三個基本原則:人道主義———處理工程與人關係的基本原則;社會公正———處理工程與社會關係的基本原則;人與自然和諧發展———處理工程與自然關係的基本原則。「大地倫理」的提出者利奧波德認為:一件事情當有助於保護自然的和諧、穩定和美麗時,它就是正確的,反之,就是錯誤的。(錯誤)7.如果我們承認了自然事物擁有內在價值,我們就認可了自然事物的(道德權利),我們就與道德義務維護自然事物。8.認為自然界的價值不依人的存在或人的評價而存在,只要對地球生態系統的完善和健康有益的事物就有價值,是價值客觀論者的主要觀點。
  • 人工智慧和機器人學的倫理原則
    2、關於AI的倫理準則應該基本上關注「供應方」,包括AI研發者、供應商和分銷商;以及使用或部署人工智慧的機構以及公共行政部門。3、這並不意味著不應在「需求方面」採取舉措。正在當使用的AI系統不符合基本原則時,在接受端的那些人應該能夠辨別,他們被允許尋求賠償,因為系統侵犯了他們受到歐盟法律體系保護的權利。
  • 倫理道德規範建設的基本原則
    然而,不論各行各業的倫理道德規範有怎樣的差異,都需要圍繞著倫理道德的基本要求來展開,而在追求倫理道德規範的價值理念中貫穿主體性原則、科學性原則、普遍化原則,會使倫理道德規範的設立和建設更加有序和合理。一、主體性原則首先,主體性原則要求確立人為道德的主體和道德價值存在的目的。
  • 倫理領導5原則 品德更勝專業
    目前管理上應用最廣泛的4 種領導類型,分別是適應性領導、參與式領導、任務導向型領導和一致性領導,本文以介紹一致性領導中的倫理領導為主要焦點。  道德危機是企業最大負債   近年來發生的企業醜聞,使得企業論理議題受到社會高度的重視,也衍生出一種領導理論,稱之為倫理領導(ethical leadership)。
  • 機器翻譯簡史
    直接機器翻譯需要訓練有素的語言學家為每個詞編寫規則,輸出的語句可以說是一種譯文,但通常很詭異。這種方法現在已經淘汰了。基於轉換的機器翻譯統計機器翻譯90年代早期,IBM研究中心首次展示了對規則和語言學一無所知的機器翻譯系統。這個系統分析了兩種語言中類似的文本,嘗試理解其中的模式。
  • 谷歌的神經翻譯系統並不意味著機器翻譯到頭了,還有大把創新可做|...
    第三就是機器翻譯在技術實際上是通用的,其實它是個一般性的原理,可以放到很多的領域,所以我會講應用拓展,用計算機自動創作古詩為例。後面是幾句結束的話。谷歌前幾個月發布了新的機器翻譯系統,這個系統實際上是完全基於深度神經網絡的一個系統。
  • 深度學習應用於機器翻譯的魔力
    統計機器翻譯在基於規則的系統失敗之後,使用基於概率和統計而不是語法規則的模型開發了新的翻譯方法。構建基於統計的翻譯系統需要大量的訓練數據,其中完全相同的文本被翻譯成至少兩種語言。這種雙翻譯文本稱為並行語料庫。
  • 機器翻譯系統提前7年達到人類專業翻譯水平
    「這既是技術上的突破,也是工程上的突破,是技術和工程的完美結合,只有把過程中的每一件事情都做好,才能得到這樣的結果。」   裡程碑式突破:首個媲美人類專業水平的機器翻譯系統   這次微軟的翻譯系統是在數據集 WMT-17 的新聞數據集 newstest2017 上取得了上述成果。
  • Facebook全新無監督機器翻譯法,BLUE測試提升超過10分!
    於是,Facebook的研究人員又使用了一種方法,他們訓練了一個單語種語言模型,對逐字翻譯系統給出的結果打分,從而儘可能排除不符合語法規則或有語病的句子。這個單語模型比較好獲得,只要有小語種(比如烏爾都語)的大量單語數據集就可以。英語的單語模型則更好構建了。通過使用單語模型對逐字翻譯模型進行優化,就得到了一個比較原始的機器翻譯系統。