每日一讀:基於Self-Attention和Bi-LSTM的中文短文本情感分析

2020-12-04 PPT愛好者

4.基於Self-Attention和Bi-LSTM的中文短文本情感分析

4.1論文信息

西北大學 信息科學與技術學院,吳小華,陳 莉,魏甜甜,範婷婷中文信息學報,2019年歸檔:WPS網盤\我的雲文檔\論文匯報\畢業論文\論文部分\短文本情感分析算法部分\參考文獻4.2論文重點

研究目的:對於當前基於注意力機制和雙向LSTM依賴於分詞精度的問題,研究者認為,採用字向量的方法可以解決過度依賴分詞精度的問題,採用自注意力機制可以獲取文本內信息。研究方法:通過字向量作為輸入,採用Bi-LSTM提取文本重要信息,採用Self-Attention方法進行權重調整,並最後按照Softmax函數進行分類研究結果:相對於其他方法具有一定的提升:

4.3模型分析

本研究提出一種基於Self-Attention的Bi-LSTM的模型character-SATT-BiLSTM,具體如下:

該模型分為四層,分別為字向量表示層、特徵學習層、權重調整層以及情感分類層。進一步進行探究 :

4.3.1 字向量表示層

依賴於詞向量的訓練方式需要有較高的分詞精度,為此作者在此處直接使用了語言單位更小的字向量。通過Skip-gram算法進行大規模訓練,每個字維度為300維。算法可以通過以下形式進行表示:

表示參數集合,算法目標是尋找最佳參數的集合。為字向量,為的語境,即:的前後各字構成的集合。因此,(原文公式應該採用豎線,表示條件,應該是排版錯誤導致)表示在條件下,語境出現的概率。表示所有字和字對應的語境集合,以及(原文公式應該是,而非,至少我到目前為止搞不清楚下標m所表示的具體含義,也沒有關於其是否為集合的表述,應該是公式弄錯了)分別表示和的向量。

4.3.2 特徵學習層

首先需要了解下LSTM,然後再對Bi-LSTM進行探究:

4.3.2.1 LSTM

【LSTM】中文名稱為:長短時記憶神經網絡,其網絡結構圖如下:

LSTM的核心在於頂部貫穿整個神經網絡的「傳送帶」,學術名稱為細胞狀態,該狀態由兩個關鍵的門組成,分別為遺忘門、輸入門

4.3.2.1.1 細胞更新

如上圖所示,時刻的細胞狀態更新依賴於兩點,一個是上一時刻的細胞狀態(),和本時刻的輸入,其中上一時刻細胞狀態經過遺忘門後,選擇性的丟棄一部分信息,經經過輸入門將此時刻的部分信息加入進來。如下圖比較清晰的闡明了該過程:

因此,細胞更新狀態的方法可以表述為:

。接下來 將具體闡述以及和是如何計算的。

4.3.2.1.2 遺忘門

上圖為遺忘門的結構圖,其接受來自上一時刻隱層的信息以及此時刻的輸入信息,經過函數計算,輸出決定丟棄多少信息。這一過程可以理解為,比對上一時刻和此時刻輸入信息是否存在差異,如果差異比較大則認為上一時刻信息十分重要,應該保留,給與較大的通過權限;如果上一時刻和此時刻輸入信息差別不大,則需要將上一時刻信息做較大的丟失。舉例:對於圖像識別而言,上一幀畫面和現在這幀畫面差別不大,則我們直接用現在這幀畫面表示即可,而上一時刻畫面丟失掉(他的作用完全可以由現在這幀替代)。可以通過如下方式進行表示:

其中,和則是通過加權和的方式結合。

4.3.2.1.2 輸入門

上圖為輸入門的結構圖,使用函數判定在新的輸入值中保留哪些信息,使用層生成候選向量。分別通過如下方法表示:

到目前為止即可完成對細胞狀態的更新。但是對於時刻而言,還需要向外輸出一個時刻的值。

4.3.2.1.3 輸出門

其中

以及

4.3.2.2 Bi-LSTM

為一個經典的Bi-LSTM圖示,其中隱層輸出為。

4.3.3 權重調整層

該層採用了自注意力機制方法,其表示方法如下:

其中為句子向量,為調整因子,為了防止內積過大,導致輸出值非0即1的情況。

4.3.4 模型訓練

Loss函數為交叉熵損失函數:

4.4 模型參數

相關焦點

  • 每日一讀:基於雙重注意力模型的微博情感傾向性分析
    2.基於雙重注意力模型的微博情感傾向性分析2.1 論文信息太原理工大學信息與計算機學院,羅春春,郝曉燕南京大學學報(自然科學),2020年歸檔:WPS網盤\我的雲文檔\論文匯報\畢業論文\論文部分\短文本情感分析算法部分\參考文獻2.2 論文重點研究目的
  • PyTorch:Bi-LSTM的文本生成
    同樣,最受歡迎的模型中的共同點是實施基於深度學習的模型。如前所述,NLP領域解決了大量的問題,特別是在本博客中,我們將通過使用基於深度學習的模型來解決文本生成問題,例如循環神經網絡LSTM和Bi-LSTM。同樣,我們將使用當今最複雜的框架之一來開發深度學習模型,特別是我們將使用PyTorch的LSTMCell類來開發。
  • 每日一讀:基於情感融合和多維自注意力機制的微博文本情感分析
    從今天開始,我會將每天的閱讀筆記上傳至公眾號,因本人水平有限,如存在錯誤之處,還請批評指正3.基於情感融合和多維自注意力機制的微博文本情感分析3.1論文信息中國民航大學電子信息與自動化學院,韓萍,孫佳慧,方 澄,賈雲飛計算機應用,2019年歸檔:WPS
  • 如何使用LSTM在Keras中快速實現情感分析任務
    本文對 LSTM 進行了簡單介紹,並講述了如何使用 LSTM 在 Keras 中快速實現情感分析任務。長短期記憶網絡通常被稱為 LSTM,它是由 Hochreiter 和 Schmiduber 提出的,被廣泛地應用在語音識別、語言建模、情感分析和文本預測中。
  • 在 TensorFlow 上使用 LSTM 進行情感分析
    在這篇教程中,我們將介紹如何將深度學習技術應用到情感分析中。該任務可以被認為是從一個句子,一段話,或者是從一個文檔中,將作者的情感分為積極的,消極的或者中性的。這篇教程由多個主題組成,包括詞向量,循環神經網絡和 LSTM。在了解這些概念之後,我們將在文章的最後給出完整的代碼。
  • 520禮包 | 情感分析算法從原理到PaddlePaddle實戰全解
    情感分析的應用場景十分廣泛,如把用戶在購物網站(亞馬遜、天貓、淘寶等)、旅遊網站、電影評論網站上發表的評論分成正面評論和負面評論;或為了分析用戶對於某一產品的整體使用感受,抓取產品的用戶評論並進行情感分析等等。今天是5月20日,PaddlePaddle教你用情感分析算法體會女神心意。
  • 教程| 利用AllenNLP,百行Python代碼訓練情感分類器
    什麼是情感分析?情感分析是一種流行的文本分析技術,用來對文本中的主觀信息進行自動識別和分類。它被廣泛用於量化觀點、情感等通常以非結構化方式記錄的信息,而這些信息也因此很難用其他方式量化。情感分析技術可被用於多種文本資源,例如調查報告、評論、社交媒體上的帖子等。情感分析最基本的任務之一是極性分類,換句話說,該任務需要判斷語言所表達的觀點是正面的、負面的還是中性的。具體而言,可能有三個以上的類別,例如:極其正面、正面、中性、消極、極其消極。
  • 使用LSTM深度學習模型進行溫度的時間序列單步和多步預測
    所使用的特徵是過去每小時的溫度數據、每日及每年的循環信號、氣壓及風速。使用來自https://openweathermap.org/的API獲取數據。這些數據從1990年1月1日到2020.11月30日每小時在維爾紐斯電視塔附近收集一次。
  • 基於seq2seq模型的中文糾錯任務
    三、項目思考 相對於英文糾錯任務,中文糾錯有自己的特性。比如中文不存在「錯字」,無 論是拼音輸入、字型輸入、語音輸入、手寫輸入均返回正確的字。 根據調研結果,中文的母語使用者的錯誤集中在由於拼音導致的拼寫錯誤以 及由於字型導致的拼寫錯誤,而語序等其他錯誤類型則很少出現。研表究明,漢 字序順並不定一影響閱讀。
  • 達觀數據乾貨分享丨情感分析架構演進
    對於買家來說,評論是了解一款產品真實情況的重要途徑。對於商家而言,評論則是了解客戶反饋、了解產品的優勢和潛在問題的第一手渠道。但對於評論數據的挖掘並不是簡單到可以信手拈來,首先一個產品往往會有非常大量的評論,買家和賣家都不可能仔細閱讀每一條評論從而得到對於一個產品的整體認知。利用計算機,利用算法自動對評論進行分析挖掘,是解決這個問題的最有效途徑。
  • 注意力機制Attention
    注意力機制(attention mechanism)Attention實質上是一種分配機制,其核心思想是突出對象的某些重要特徵。根據Attention對象的重要程度,重新分配資源,即權重,實現核心思想是基於原有的數據找到其之間的關聯性,然後突出其某些重要特徵。注意力可以被描述為將一個查詢和一組鍵值對映射到一個輸出,其中查詢、鍵、值和輸出都是向量。
  • 中文NER的正確打開方式: 詞彙增強方法總結 (從Lattice LSTM到FLAT)
    究其緣由,由於中文分詞存在誤差,基於字符的NER系統通常好於基於詞彙(經過分詞)的方法。而引入詞彙信息(詞彙增強)的方法,通常能夠有效提升中文NER性能。此外,Lattice LSTM無法有效處理詞彙信息衝突問題,如上圖所示:字符 [長] 可以匹配到詞彙 [市長] 和 [長隆],不同的匹配會導致[長] 得到不同的標籤,而對於RNN結構:僅僅依靠前一步的信息輸入、而不是利用全局信息,無法有效處理這一衝突問題。顯而易見,對於中文NER,這種衝突問題很常見,在不參考整個句子上下文和高層信息的前提下很難有效解決。
  • Looking-glass Self(鏡中自我)& Contingent Self-esteem(外界決定型自尊感)
    根據這一理論,人類自我認知基於自己對別人眼中自己形象的主觀評估(即,我們所認為的別人對我們所持有的印象)。根據這一理論,首先,人們會想像自己在別人面前所表現出的形象。其次,他們會想像別人會基於這種所表現出的形象對其作出何種評判。比如,一個人可能會被評判為幽默/聰明/睿智等。第三,對於這種所想像的評判結果,人們會在情感上做出反應,如自豪或尷尬等。
  • 谷歌推出基於注意機制的全新翻譯框架,Attention is All You Need!
    Transformer是完全基於注意力機制(attention mechanism)的網絡框架,放棄了RNN和CNN模型。眾所周知,在編碼-解碼框架中,主流的序列傳導模型都是基於RNN或者CNN的,其中能完美連接編碼器和解碼器的是注意力機制。而谷歌提出的這一新框架Transformer,則是完全基於注意力機制的。
  • nlp領域發生了新的技術突破,用attention機制研究nlp領域
    近期,nlp領域發生了一系列的技術突破。包括:attention機制,cnn,adaptive attention network(an),兩層cnn相比較,an表現優於一層的cn。lstm,已經有了兩種不同的,看似性能和效率差異不大的attention機制:rnnattention,lstmattention。今天我們將從這兩種attention機制開始研究nlp領域突破性技術!
  • 品覽AI論技|論CCNet如何有效減輕Attention機制的計算量
    舉個例子,我們在閱讀一個長難句的時候如果仔細閱讀並分析每個詞,那麼肯定很浪費時間並且讀到後面就會忘記前面的內容,但是老師從小就教育我們在分析長難句的時候要關註裡面的重點詞彙,這就是Attention的思想。當然,這個是Attention的nlp的應用思想,不過這並不影響Attention在cv領域的應用,因為我們看一張圖片的時候也是挑重點看,比如下面這張圖片,應該沒有人會重點看椰子吧。
  • 基於人民網新聞標題的短文本自動分類研究
    摘要: 自動文本分類技術將人類從繁瑣的手工分類中解放出來,使分類任務變的更為高效,為進一步的數據挖掘和分析奠定基礎。對於新聞來說,簡短的新聞標題是新聞內容的高度總結,針對短文本的分類研究一直是自動文本分類技術的研究熱點。
  • 時間序列的LSTM模型預測——基於Keras
    一、問題背景    現實生活中,在一系列時間點上觀測數據是司空見慣的活動,在農業、商業、氣象軍事和醫療等研究領域都包含大量的時間序列數據。時間序列的預測指的是基於序列的歷史數據,以及可能對結果產生影響的其他相關序列,對序列未來的可能取值做出預測。
  • 一步步解析Attention is All You Need!
    好了,我們主要關注的是每一層Encoder和每一層Decoder的內部結構。如下圖所示:計算Attention首先要有query,key和value。我們前面提到了,Encoder的attention是self-attention,Decoder裡面的attention首先是self-attention,然後是encoder-decoder attention。
  • 賽爾筆記|基於知識引入的情感分析
    作者:哈工大SCIR 袁建華 袁明琛 盧延悅1.引文情感分析 知識當training數據不足以覆蓋inference階段遇到的特徵時,是標註更多的數據還是利用現有外部知識充當監督信號?基於機器學習、深度學習的情感分析方法,經常會遇到有標註數據不足,在實際應用過程中泛化能力差的局面。