阿里iDST ICCV 2017錄用論文詳解:基於層次化多模態LSTM的視覺語義...

2020-12-13 雷鋒網

雷鋒網 AI 科技評論按:ICCV,被譽為計算機視覺領域三大頂級會議之一的、作為計算機視覺領域最高級別的會議之一,其論文集代表了計算機視覺領域最新的發展方向和水平。阿里巴巴在今年的 ICCV 2017上有多篇論文入選。

本文是阿里iDST與西安電子科大、西安交大等合作的 ICCV 2017 論文解讀《基於層次化多模態LSTM的視覺語義聯合嵌入》(Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding),雷鋒網AI科技評論做了不改動原意的編輯。

論文下載連結:http://openaccess.thecvf.com/ICCV2.py

精準描述商品:計算機視覺和自然語言處理的聯合

近年來, 隨著深度學習技術的快速發展, 人們開始嘗試將計算機視覺 (Vision) 和自然語言處理 (Language) 兩個相對獨立的領域聯合起來進行研究, 實現一些在過去看來非常困難的任務,例如「視覺-語義聯合嵌入 (Visual-Semantic Embedding)」。該任務需要將圖像及語句表示成一個固定長度的向量,進而嵌入到同一個矢量空間中。這樣,通過該空間中的近鄰搜索可以實現圖像和語句的匹配、檢索等。

視覺語義聯合嵌入的一個典型應用就是圖像標題生成(Image Captioning):對於任意輸入的一張圖像, 在空間中找到最匹配的一句話, 實現圖像內容的描述。在電商場景下, 淘寶賣家在發布一件商品時, 該算法可以根據賣家上傳得圖片, 自動生成一段描述性文字, 供賣家編輯發布使用。再比如,視覺語義聯合嵌入還可以應用於「跨模態檢索 (Cross-media Retrieval)」:當用戶在電商搜尋引擎中輸入一段描述性文字(如「夏季寬鬆波希米亞大擺沙灘裙」、「文藝小清新娃娃領飛飛袖碎花 A 字裙」等), 通過文字-圖像聯合分析, 從商品圖像資料庫中找到最相關的商品圖像返回給用戶。

之前的不足:只能嵌入較短的語句簡單描述圖片

以往的視覺語義聯合嵌入方法往往只能對比較短的句子進行嵌入,進而只能對圖像做簡單而粗略的描述,然而在實際應用中,人們更希望得到對圖像(或圖像顯著區域)更為細緻精確的描述。如圖 1 所示,我們不僅想知道誰在幹什麼,還想知道人物的外表,周圍的物體,背景,時間地點等。

現有方法:「A girl is playing a guitar.」

我們提出的方法:「a young girl sitting on a bench is playing a guitar with a black and white dog nearby.」

圖 1 現有方法的問題

為了實現這個目標,我們提出一個框架:第一步從圖像中找出一些顯著性區域,並用具有描述性的短語描述每個區域;第二步將這些短語組合成一個非常長的具有描述性的句子,如圖 2 所示。

圖 2 我們提出的框架

為此,我們在訓練視覺語義聯合嵌入模型時不僅需要將整個句子嵌入空間,更應該將句子中的各種描述性短語也嵌入空間。然而,以往的視覺語義聯合嵌入方法通常採用循環神經網絡模型(如 LSTM(Long short-term memory) 模型)來表示語句。標準的 LSTM 模型有一個鏈式結構(Chain structure):每一個單元對應一個單詞,這些單詞按出現順序排成一列,信息從第一個單詞沿該鏈從前傳到最後,最後一個節點包含了所有的信息,往往用於表示整個句子。顯然,標準的 LSTM 模型只適合表示整個句子,無法表示一句話中包含的短語,如圖所示。

圖 3 鏈式結構的問題

論文創新方法:提出層次化的 LSTM 模型

本文提出一種多模態、層次化的 LSTM 模型(Hierarchical Multimodal LSTM)。該方法可以將整個句子、句子中的短語、整幅圖像、及圖像中的顯著區域同時嵌入語義空間中,並且自動學習出「句子-圖像」及「短語-圖像區域」間的對應關係。這樣一來,我們生成了一個更為稠密的語義空間,該空間包含了大量的描述性的短語,進而可以對圖像或圖像區域進行更詳細和生動的描述,如圖所示。

圖 4 本文提出的多模態層次結構

本文方法的創新性在於提出了一個層次化的 LSTM 模型,根節點對應整句話或整幅圖像,葉子節點對應單詞,中間節點對應短語或圖象中的區域。該模型可以對圖像、語句、圖像區域、短語進行聯合嵌入(Joint embedding),並且通過樹型結構可以充分挖掘和利用短語間的關係(父子短語關係)。其具體網絡結構如下圖所示:

圖 5 網絡結構

其中為每一個短語和對應的圖像區域都引入一個損失函數,用於最小化二者的距離,通過基於結構的反向傳播算法進行網絡參數學習。

在圖像-語句數據集上的比較

圖 6 在 Flickr30K 數據集上的對比

圖 7 在 MS-COCO 數據集上的對比

可見本文方法在幾個公開數據集上都獲得了很好的效果。

在圖像區域-短語數據集上的對比

我們提供了一個帶有標註的圖像區域-短語數據集 MS-COCO-region,其中人工標定了一些顯著性物體,並在這些物體和短語之間建立了聯繫。

圖 8 在 MS-COCO-region 數據集上的對比

下圖是我們方法的可視化結果,可見我們的短語具有很強的描述性。

此外,我們可以學習出圖像區域和短語的對應關係,如下:

更多資訊敬請關注雷鋒網AI科技評論。

相關焦點

  • 【ICCV2017論文技術解讀】阿里-基於層次化多模態LSTM的視覺語義聯合嵌入
    ICCV2017論文:《基於層次化多模態LSTM的視覺語義聯合嵌入》(Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding)近年來, 隨著深度學習技術的快速發展
  • 專欄 | 阿里 AI LAB ICCV 2017 錄用論文詳解:語言卷積神經網絡應用於圖像標題生成的經驗學習
    ICCV,被譽為計算機視覺領域三大頂級會議之一的、作為計算機視覺領域最高級別的會議之一,其論文集代表了計算機視覺領域最新的發展方向和水平。
  • 計算機視覺頂會ICCV論文解讀
    作為計算機視覺領域最高級別的會議之一,其論文集代表了計算機視覺領域最新的發展方向和水平。阿里巴巴在今年的大會上有多篇論文入選,本篇所解讀的論文是阿里iDST與多家機構合作的入選論文之一,目標是教會機器讀懂圖片並儘量完整表達出來。
  • ACM MM | 中山大學等提出HSE:基於層次語義嵌入模型的精細化物體分類
    原標題:ACM MM | 中山大學等提出HSE:基於層次語義嵌入模型的精細化物體分類 機器之心發布 作者:Tianshui Chen、Wenxi Wu、Yuefang Gao、Le Dong、Xiaonan Luo、Liang Lin
  • 基於機動LSTM的周圍車輛多模態軌跡預測
    這些方法通過最小化訓練數據集中預測軌跡與真實軌跡之間的誤差,將軌跡預測問題轉化為一個回歸問題。基於回歸的方法的一個陷阱是駕駛員行為固有的多形態。在相同的交通環境下,人類司機可以做出許多決定之一。例如,一個司機以更快的速度接近他們的領頭車輛,或者減速,或者改變車道、加速超車。基於回歸的方法傾向於輸出這些多重可能性的平均值,因為平均預測可以最小化回歸誤差。然而,平均預測可能不是一個好的預測。
  • 騰訊AI Lab 21 篇 CVPR 2018 錄用論文詳解
    近十年來在國際計算機視覺領域最具影響力、研究內容最全面的頂級學術會議 CVPR,近日揭曉 2018 年收錄論文名單,騰訊 AI Lab 共有 21 篇論文入選,位居國內企業前列,我們將在下文進行詳解,歡迎交流與討論。去年 CVPR 的論文錄取率為 29%,騰訊 AI Lab 共有 6 篇論文入選。
  • 深度學習用於多模態語義學習簡述
    例如谷歌研究組在2014年大規模視覺識別挑戰賽(ImageNet Large Scale Visual Recognition Challenge,ILSⅤRC)中採用改進的卷積神經網絡GoogLeNet,將圖像識別準確率提升到93.3%;基於區域的卷積神經網絡(Convolution Neural Network,CNN)在精細度語義理解上取得了顯著進展;通過利用具有長短時記憶(Long Short-Term
  • 華為首次投資國內AI公司,多模態深度語義理解技術成競逐焦點?
    該公司最突出的技術是「多模態深度語義理解引擎(iDeepwise.ai)與人機互動技術」,該引擎技術可同時理解文本、視覺圖像等多模態非結構化數據背後的深度語義,其中以「長文本的機器閱讀理解技術、自由跨域的多輪人機對話技術、對多種模態信息的語義理解技術」三大技術,搶佔了市場的先發優勢。
  • 西安電子科技大學團隊論文被機器學習頂會ICML2020錄用
    作為機器學習領域國際頂級會議,ICML對論文質量有較高要求,本屆ICML會議錄用論文1080篇,錄用率僅為21.80%,因此在該會議發表論文表達了對作者工作的高度肯定。今年,國內有來自清華、北大、上海交大、中科大、浙大和南大等高校的工作被錄用,但僅是美國的1/6,也部分說明了我國在機器學習領域確實還有較大空間需要提升。
  • ICCV 引用量最高的10篇論文!何愷明兩篇一作論文:Mask R-CNN和PReLU,Facebook佔據四席!
    各位CVers反映內容很贊,於是Amusi 快速整理了ICCV 引用量最高的10篇論文。在谷歌發布的2020年的學術指標(Scholar Metrics)榜單,ICCV 位列總榜第29位,是計算機視覺領域排名第二的大會!
  • ECCV2020 | 北京大學提出RGB-D語義分割新網絡,多模態信息融合
    旨在為每個像素分配不同語義標籤的語義分割是一項長期的任務。除了從視覺提示中利用各種上下文信息外,深度數據最近還被用作RGB數據的補充信息,從而提高了分割精度。深度數據通過為2D視覺信息提供3D幾何形狀,自然地補充了RGB信號,這對於照明的變化是穩定的,並有助於更好地區分各種對象。
  • 萬字長文,深度解讀11篇 EMNLP 2017 被錄用論文
    8月16日,在北京中科院軟體研究所舉辦的「自然語言處理前沿技術研討會暨EMNLP2017論文報告會」上,邀請了國內部分被 EMNLP 2017錄用論文的作者來報告研究成果。整場報告會分為文本摘要及情感分析、機器翻譯、信息抽取及自動問答、文本分析及表示學習四個部分。感覺上次的 CCF-GAIR 參會筆記寫的像流水帳,這次換一種方式做筆記。
  • 今日Paper | 模態平衡模型;組合語義分析;高表達性SQL查詢;多人...
    視覺對話的模態平衡模型           對注意力的通用攻擊和對應的數據集DAmageNet半結構化表的組合語義分析從輸入輸出示例合成高表達性SQL查詢DeeperCut: 一種更深入,更強,更快速的多人姿態估計模型論文名稱:Modality-Balanced Models for Visual Dialogue
  • 今日Paper|模態平衡模型;組合語義分析;高表達性SQL查詢;多人姿態...
    目錄視覺對話的模態平衡模型 對注意力的通用攻擊和對應的數據集DAmageNet半結構化表的組合語義分析從輸入輸出示例合成高表達性SQL查詢DeeperCut: 一種更深入,更強,更快速的多人姿態估計模型視覺對話的模態平衡模型 論文名稱:Modality-Balanced Models for Visual Dialogue
  • 基於深度學習的語義分割綜述
    近年來,由於深度學習模型在視覺應用中的成功,已有大量的工作致力於利用深度學習模型開發圖像分割方法。本文全面回顧了撰寫本文時的文獻,涵蓋了語義和實例級分割的大量開創性工作,包括完全卷積像素標記網絡、編碼器-解碼器架構、多尺度和基於金字塔的方法、遞歸網絡,視覺attention模型,以及生成對抗模型。
  • 文本+視覺,多篇 Visual/Video BERT 論文介紹
    作者們把熱門的 BERT 架構拓展為一個支持兩個流輸入的多模態模型,它在這兩個流中分別預處理視覺和文本輸入,並在聯合注意力 transformer 層中進行交互。作者們先在大規模自動採集數據集 Conceptual Captions 上通過兩個代理任務預訓練模型,然後把它遷移到多個現有的視覺-語言任務上,包括視覺問答、視覺常識推理、代指詞、基於說明的圖像檢索,過程中也只對基礎架構做很小的調整。
  • 騰訊優圖的 ICCV 2017:12篇論文入選 CV 頂會,3篇Oral|ICCV 2017
    被譽為計算機視覺領域三大頂級會議之一的ICCV(另外兩個為CVPR、ECCV)近日揭曉收錄論文名單,騰訊優圖共有12篇論文入選,其中3篇被選做口頭報告(Oral),該類論文僅佔總投稿數的2.1%(45/2143)。本屆 ICCV 共收到2143篇論文投稿,其中621篇被選為大會論文,錄用比例29%。
  • 鄧力、何曉冬深度解讀:多模態智能未來的研究熱點
    Fusion, and Applications」的綜述論文,對主要基於文本和圖像處理的多模態研究,如圖像字幕生成、基於文本的圖像生成、視覺問答、視覺推理等方向的相關研究,從表徵學習、信息融合和具體應用三個角度進行了綜述和回顧,並對未來可能的研究熱點進行了分析和展望。
  • 北京大學提出RGB-D語義分割新網絡,多模態信息融合
    旨在為每個像素分配不同語義標籤的語義分割是一項長期的任務。除了從視覺提示中利用各種上下文信息外,深度數據最近還被用作RGB數據的補充信息,從而提高了分割精度。深度數據通過為2D視覺信息提供3D幾何形狀,自然地補充了RGB信號,這對於照明的變化是穩定的,並有助於更好地區分各種對象。
  • 語言學運用、LSTM+DSSM算法、多模態情感交互
    技術新招:語言學運用、LSTM+DSSM算法、多模態情感交互等   針對前述問題,在語義理解方面,目前比較新銳的做法是以傳統的NLP技術打底,加上語言學結構,結合新的機器學習、深度學習、以及金融知識圖譜的方法,融合地去把整個語義理解抽象化後做降維。