都在用的報告小程序
寫文章、做研究、查資料【必備】
中國最受歡迎的聊天應用程式微信表示歉意,由於其軟體將通常意為「外國黑人」的中文短語翻譯為「黑鬼」。
擁有近9億用戶的微信將帶有種族歧視的翻譯歸咎於中英文人工智慧軟體的錯誤。
這個問題首先被一位居住在上海的美國人Ann James注意到,當時她的朋友在中文微信群聊天中討論要遲到了。James用了微信內置翻譯功能,得到的消息是:「黑鬼遲到。」
「如果你是在中國的黑人,你就會想到一些瘋狂的事情,」 James告訴新聞網站Sixth Tone,並補充說,她經常在公開場合和人接觸以及拍照。 「我知道大家對黑人有很多好奇心,並且不了解他們。」
在隨後的測試中,用戶發現該應用程式幾乎完全用於消極的語境,包括遲到,懶惰和小偷的話。但是在許多中立句子中,漢語中的「黑鬼」這個詞被翻譯成英文,是「外國黑人」的字面含義。
「我們對翻譯不當感到非常抱歉。」 微信發言人說, 「收到用戶的反饋後,我們立即解決了這個問題。」衛報測試表明,翻譯軟體已被重新修改,不再有種族歧視的含義。
該公司使用AI和機器學習,提供計算機大量數據來訓練它,以便根據上下文選擇最佳翻譯。但該制度也消除了人力監督,導致使用不正確甚至令人反感的話語。
據悉,識別模式是語言AI的核心,語言AI是在關聯詞模式下提取詞語。例如,在2016年,研究人員測試了谷歌文本算法與新聞抓取工具之間的關聯,出現的結果錯誤泛濫: 「艾米莉」被翻譯成「烏木」,「煎餅」對應的「炸雞」『更離譜的是,「男人」竟被翻譯成「女人」, 「醫生」被稱為「護士」。
「AI可以說更像人類一樣思考。可悲的是,他們正在學習我們提供的最糟糕的東西。」外媒指出,這在本質上是如何「教導」AI識別種族主義歧視的問題?
本文來源前瞻網,轉載請註明來源。本文內容僅代表作者個人觀點,本站只提供參考並不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯繫:service@qianzhan.com) 品牌合作與廣告投放請聯繫:0755-33015062 或 hezuo@qianzhan.com