換一下同義詞,AI就把句子意思弄反|華人研究者揭示NLP模型脆弱性

2021-01-15 量子位

賴可 發自 凹非寺量子位 報導 | 公眾號 QbitAI

騙過AI如此簡單。

換了一個同義詞,自然語言處理模型就讀不對句子的意思了。

麻省理工和香港大學的研究生們開發了一個算法,讓AI在文本分類和推理問題上的正確率從80%下降到10%。

測試原理

這個模型的名字叫Textfooler,通過生經過微調的句子,來對自然語言文本分類和推理進行攻擊。

比如在著名的分類任務影評判斷中,AI的任務是去判斷一句影評是肯定性的還是否定性的。

像這句:

The characters, cast in impossibly contrived situations, are totallyestranged from reality.(劇中的人物,被安排在不可能情境之中,與現實完全脫節。)

Textfooler模型生成的對應句子是:

The characters, cast in impossibly engineered circumstances, are fullyestranged from reality.

將contrived situation改為了engineered circumstance,totally 改為fully。

結果AI將第一個句子標記為「負面」,第二個句子標記為「正面「。

在推理任務中,AI需要判斷在一個句子和情境之間的關係,是蘊含,中立,還是矛盾。

比如給定一個前提:

Two small boys in blue soccer uniforms use a wooden set of steps to wash their hands.兩個穿著藍色足球服的小男孩藉助一套木製的臺階洗手。

需要判斷這句話「The boys are in band uniforms.」(男孩們穿著樂隊制服)和前提的關係。

AI會把這個句子判斷為」矛盾」。

當把uniforms這個單詞改為garments以後:The boys are in band garments。

AI 就會把句子判斷為「蘊含」。

此外,研究團隊還請人類被試閱讀這些句子,以確認它新生成的句子和原句接近。

他們從進行實驗的兩個數據集MR dataset和WordLSTM中各挑100個例子,請被試行進行打分。相似為1,有歧義為0.5,不同為0,最後得到的分數分別為0.91和0.86。

這說明,調整後的句子對人類閱讀影響很小。

各模型測試結果

研究團隊使用了三個模型,七個數據集來進行測試。

三個模型為:BERT,WordCNN,WordLSTM。

數據集:

△5個為分類數據集,2個為蘊含推理數據集

分類任務的測試結果如下:

所有的模型的原來的精確度都在78%以上,像BERT則表現更優秀,在兩個數據集上都能達到97%的精確度。

但是經過Textfooler的攻擊,精確度全部降到了20%以下。

再來蘊含推理任務表現如何:

精確度從原來的80%降到了10%以下。

在實際應用中可能產生影響

處理文本的AI越來越多地被用來判斷應聘者,評估醫療報銷,處理法律文件。因此,研究者認為,AI的這一缺陷要引起重視。

如果用於金融或醫療保健中的自動化系統,即使是文本上微小變化,也可能造成很多麻煩。

加州大學歐文分校的助理教授Sameer Singh說,這個調整文本的方法「確實非常有效地為AI系統生成了良好的對手」 。

但是他又表示,這個方法在實踐中很難實施,因為它涉及反覆探測AI系統,這可能會引起懷疑。

加州大學伯克利分校的教授Dawn Song專門研究AI和安全性。她說,這一研究是不斷發展的工作的一部分,該工作表明如何欺騙語言算法,並且各種商業系統可能容易受到某種形式的攻擊。

看來,想讀懂人話,AI還需繼續努力呀。

研究團隊

這項研究由清華大學、香港大學、新加坡科技研究院的研究員共同完成。通訊作者有兩位:

△Di Jin

Di Jin,本科畢業於清華大學計算機學院。2020年獲得MIT計算機科學博士學位。目前是MIT的計算機科學與人工智慧實驗室的助理研究員。

△金致靜

金致靜,高中畢業於上海華東師大二附,本科畢業於香港大學,目前正在申請博士學位。已經在頂級會議NAACL,EMNLP,AAHPM,AAAI上發表了4篇NLP論文。

github地址:https://github.com/jind11/TextFooler

論文地址:https://arxiv.org/pdf/1907.11932.pdf

參考連結:https://www.wired.com/story/technique-uses-ai-fool-other-ais/

— 完 —

相關焦點

  • 替換一下同義詞,AI就把句子意思弄反了|華人研究者揭示NLP模型脆弱性
    換了一個同義詞,自然語言處理模型就讀不對句子的意思了。麻省理工和香港大學的研究生們開發了一個算法,讓AI在文本分類和推理問題上的正確率從80%下降到10%。測試原理這個模型的名字叫Textfooler,通過生經過微調的句子,來對自然語言文本分類和推理進行攻擊。
  • 最全NLP反作弊攻略,從馬蜂窩注水事件說起
    所以,如果作弊者在文字中添加一些無損原意的信息或者替換一些同義詞,該算法就無法查出。如對於句子「我們這些路痴好不容易找到了飯店的西門」,我們把「飯店」變為「餐館」,把「我們」變為「俺們」,或者加入一些馬蜂窩的網址,就使得新生成的句子與原句子不完全相同。
  • 基於Bert和通用句子編碼的Spark-NLP文本分類
    文本分類問題中使用了幾個基準數據集,可以在nlpprogress.com上跟蹤最新的基準。以下是關於這些數據集的基本統計數據。簡單的文本分類應用程式通常遵循以下步驟:文本預處理和清理特徵工程(手動從文本創建特徵)特徵向量化(TfIDF、頻數、編碼)或嵌入(word2vec、doc2vec、Bert、Elmo、句子嵌入等)用ML和DL算法訓練模型。
  • PTMs|2020最新NLP預訓練模型綜述
    「nlp領域的發展比cv領域相對緩慢的原因是什麼呢」?相比於cv領域,「nlp領域的劣勢在於有監督數據集大小非常小」(除了機器翻譯),導致深度學習模型容易過擬合,不能很好地泛化。但是相反,nlp領域的優勢在於,存在大量的無監督數據集,如果能夠充分利用這類數據進行訓練,那麼勢必能夠提升模型的能力以及在下遊任務中的表現。nlp中的預訓練模型就是這樣一類能夠在大規模語料上進行無監督訓練,學習得到通用的語言表徵,有助於解決下遊任務的nlp模型。「那麼什麼是好的語言表徵呢」?
  • 素炮是什麼意思什麼梗? 素覺的同義詞了解一下
    素炮是什麼意思什麼梗? 素覺的同義詞了解一下時間:2019-11-22 16:55   來源:小雞詞典   責任編輯:沫朵 川北在線核心提示:原標題:素炮是什麼意思什麼梗? 素覺的同義詞了解一下 指兩個人雖然開了房,約了炮,但只是單純地擁抱在一起睡了一覺,沒有發生過實質性的關係。和素覺是同義詞。
  • 鄒炎炎:語義分析介紹及跨語言信息在語義分析中的應用 | AI 研習社...
    當然這個 semantic trees 也可以反向轉化為 FunQL,使用 semantic trees 這個媒介,能幫助我們更好得學到句子的語法意義。【更多關於使用跨語言信息去學習語義分析器的 Motivation 的講解,請回看視頻 00:32:15 處,http://www.mooc.ai/open/course/544?=aitechtalkzouyanyan】接下來就是怎麼去給這些共享信息建立模型。
  • 吳恩達deeplearning.ai五項課程完整筆記了解一下?
    自吳恩達發布 deeplearning.ai 課程以來,很多學習者陸續完成了所有專項課程並精心製作了課程筆記,在此過程中機器之心也一直在為讀者推薦優質的筆記。上個月,deep learning.ai 第五課發布,該系列課程最終結課。Mahmoud Badry 在 GitHub 上開源了五項課程的完整筆記,介紹了包括序列模型在內的詳細知識點。
  • 性能媲美BERT,參數量僅為1/300,谷歌最新的NLP模型
    大多數模型對每個 token 使用固定數目的參數,而 PRADO 模型使用的網絡結構只需要很少的參數即可學習與任務最相關或最有用的 token。論文連結:https://www.aclweb.org/anthology/D19-1506.pdf在最新的博客文章中,谷歌的研究者宣布它們改進了 PRADO,並將改進後的模型稱為 pQRNN。
  • 資源| 史丹福大學NLP組開放神經機器翻譯代碼庫(附論文)
    除此之外,「為了鼓勵再現和增加透明」,他們還放出了他們用於訓練模型的處理過的數據以及可以通過他們的代碼庫使用的預訓練好的模型。發布地址:http://nlp.stanford.edu/projects/nmt/參與成員:Christopher D.
  • 這套1600贊的NLP課程已開放,面向實戰,視頻代碼都有丨資源
    一套面向實戰、號稱「代碼優先」的NLP課程來了,名字為A Code-First Introduction to Natural Language Processing,fast.ai出品,全程免費學習。不到半天點讚超過1600,轉發近500。
  • 斯坦福發布重磅NLP工具包StanfordNLP,支持中文等53種語言
    除了從CoreNLP繼承的功能外,StanfordNLP還包含將一串文本轉換成句子和單詞列表,生成這些單詞的基本形式、它們的詞類和形態學特徵的工具,以及超過70種語言的句法結構。這個軟體包採用高準確性的神經網絡組件構建,這些組件支持用戶使用自己的注釋數據進行高效的訓練和評估。
  • Kaggle Grandmaster 的 NLP 方法
    目前,他擔任挪威 Boost.a i 的首席數據科學家,這是一家「專門研究會話人工智慧(ai)的軟體公司」,但我對 Abhishek 印象最深的地方在於他的 Kaggle 影響力。我想看看 Abhishek 的經驗,了解任何關於 kaggle 的 NLP 問題。我選擇了 Abhishek 的 kernel。
  • 自然語言處理全家福:縱覽當前NLP中的任務、數據、模型與論文
    選區解析選區解析(constituency parsing)的目的是從根據詞組結構語法來表徵其合成結構的句子中提取基於選區的解析樹。示例:近期發展出來的方法(《Grammar as a Foreign Language》)將解析樹轉換為按深度優先遍歷的序列,從而能應用序列到序列模型到該解析樹上。
  • 一文解讀NLP中的注意力機制
    注意力機制首先從人類直覺中得到,在nlp領域的機器翻譯任務上首先取得不錯的效果。簡而言之,深度學習中的注意力可以廣義地解釋為重要性權重的向量:為了預測一個元素,例如句子中的單詞,使用注意力向量來估計它與其他元素的相關程度有多強,並將其值的總和作為目標的近似值。既然注意力機制最早在nlp領域應用於機器翻譯任務,那在這個之前又是怎麼做的呢?
  • 華人研究團隊推出AI「諷刺」檢測模型,準確率達86%
    以下三個句子中,請判斷哪一個是諷刺、吐槽和凡爾賽文學?在這個社會上,不管承受多少的責難,都別忍。因為現在管虛偽不叫虛偽了,都叫做情商高。長得醜真是難為你了,早上跑出來嚇人,晚上跑出來嚇鬼。iphone 11 pro max真的一點也不好用,我的卡死了,還是512g的暗夜綠!
  • 華人研究團隊推出AI「諷刺」檢測模型,準確率達86%
    以下三個句子中,請判斷哪一個是諷刺、吐槽和凡爾賽文學?在這個社會上,不管承受多少的責難,都別忍。因為現在管虛偽不叫虛偽了,都叫做情商高。長得醜真是難為你了,早上跑出來嚇人,晚上跑出來嚇鬼。iphone 11 pro max真的一點也不好用,我的卡死了,還是512g的暗夜綠!
  • nlp領域發生了新的技術突破,用attention機制研究nlp領域
    近期,nlp領域發生了一系列的技術突破。包括:attention機制,cnn,adaptive attention network(an),兩層cnn相比較,an表現優於一層的cn。今天我們將從這兩種attention機制開始研究nlp領域突破性技術!
  • 如何「錨定」NLP模型中的語言智慧?丨長文評析語言探針
    在 NLP 興起的時候,兩個詞默認同一個意思(即,解釋模型的行為),可以交替使用。隨著 NLP 的發展,兩個名詞漸漸出現了細微的差別。 其中,「interpretable」 可以理解為,使本就透明的白盒通俗易懂,所有經驗水平的用戶都可以明白模型的含義,偏重於理解;而 「explainable」,則強調研究者對於黑盒模型的行為作出人們所能理解的解釋,更偏重於深層的解釋。
  • 【超全資源】自然語言處理(NLP)入門學習資源清單(部分資料下載)
    displaCy網站上的可視化依賴解析樹https://demos.explosion.ai/displacy/?text=Great%2C%20this%20is%20just%20what%20I%20needed!
  • 2019 年 NLP 領域都發生了哪些大事件?
    論文《Building Machine Learning Models via Comparisons》中,研究者們還研發出了一種方法,重點研究通過比較的方法構建並訓練機器學習模型。這項技術不需要大量的「特徵-標籤」數據對,而是將圖像與模型之前看到過的圖像進行比較,以確定圖像是否應該被賦予某種標籤。