阿里妹導讀:ICCV,被譽為計算機視覺領域三大頂級會議之一。作為計算機視覺領域最高級別的會議之一,其論文集代表了計算機視覺領域最新的發展方向和水平。阿里巴巴在今年的大會上有多篇論文入選,本篇所解讀的論文是阿里iDST與多家機構合作的入選論文之一,目標是教會機器讀懂圖片並儘量完整表達出來。
精準描述商品:計算機視覺和自然語言處理的聯合
近年來,隨著深度學習技術的快速發展, 人們開始嘗試將計算機視覺(Vision)和自然語言處理(Language)兩個相對獨立的領域聯合起來進行研究,實現一些在過去看來非常困難的任務,例如「視覺-語義聯合嵌入(Visual-SemanticEmbedding)」。該任務需要將圖像及語句表示成一個固定長度的向量,進而嵌入到同一個矢量空間中。這樣,通過該空間中的近鄰搜索可以實現圖像和語句的匹配、檢索等。
視覺語義聯合嵌入的一個典型應用就是圖像標題生成(Image Captioning):對於任意輸入的一張圖像, 在空間中找到最匹配的一句話, 實現圖像內容的描述。在電商場景下, 淘寶賣家在發布一件商品時, 該算法可以根據賣家上傳得圖片, 自動生成一段描述性文字, 供賣家編輯發布使用。再比如,視覺語義聯合嵌入還可以應用於「跨模態檢索(Cross-mediaRetrieval)」:當用戶在電商搜尋引擎中輸入一段描述性文字(如「夏季寬鬆波希米亞大擺沙灘裙」、「文藝小清新娃娃領飛飛袖碎花A字裙」等), 通過文字-圖像聯合分析, 從商品圖像資料庫中找到最相關的商品圖像返回給用戶。
之前的不足:只能嵌入較短的語句簡單描述圖片
以往的視覺語義聯合嵌入方法往往只能對比較短的句子進行嵌入,進而只能對圖像做簡單而粗略的描述,然而在實際應用中,人們更希望得到對圖像(或圖像顯著區域)更為細緻精確的描述。如圖1所示,我們不僅想知道誰在幹什麼,還想知道人物的外表,周圍的物體,背景,時間地點等。
圖1 現有方法的問題
現有方法:「A girl is playing a guitar.」
我們提出的方法:「a young girl sitting on a benchis playing a guitar with a black and white dog nearby.」
為了實現這個目標,我們提出一個框架:第一步從圖像中找出一些顯著性區域,並用具有描述性的短語描述每個區域;第二步將這些短語組合成一個非常長的具有描述性的句子,如圖2所示。
圖2 我們的提出的框架
為此,我們在訓練視覺語義聯合嵌入模型時不僅需要將整個句子嵌入空間,更應該將句子中的各種描述性短語也嵌入空間。然而,以往的視覺語義聯合嵌入方法通常採用循環神經網絡模型(如LSTM(Long short-term memory)模型)來表示語句。標準的LSTM模型有一個鏈式結構(Chain structure):每一個單元對應一個單詞,這些單詞按出現順序排成一列,信息從第一個單詞沿該鏈從前傳到最後,最後一個節點包含了所有的信息,往往用於表示整個句子。顯然,標準的LSTM模型只適合表示整個句子,無法表示一句話中包含的短語,如圖所示。
圖3 鏈式結構的問題
論文創新方法:提出層次化的LSTM模型
本文提出一種多模態、層次化的LSTM模型(Hierarchical Multimodal LSTM)。該方法可以將整個句子、句子中的短語、整幅圖像、及圖像中的顯著區域同時嵌入語義空間中,並且自動學習出「句子-圖像」及「短語-圖像區域」間的對應關係。這樣一來,我們生成了一個更為稠密的語義空間,該空間包含了大量的描述性的短語,進而可以對圖像或圖像區域進行更詳細和生動的描述,如圖所示。
圖4 本文提出的多模態層次結構
本文方法的創新性在於提出了一個層次化的LSTM模型,根節點對應整句話或整幅圖像,葉子節點對應單詞,中間節點對應短語或圖象中的區域。該模型可以對圖像、語句、圖像區域、短語進行聯合嵌入(Joint embedding),並且通過樹型結構可以充分挖掘和利用短語間的關係(父子短語關係)。其具體網絡結構如下圖所示
圖5 網絡結構
其中為每一個短語和對應的圖像區域都引入一個損失函數,用於最小化二者的距離,通過基於結構的反向傳播算法進行網絡參數學習。
在圖像-語句數據集上的比較
Image Annotation
Image Search
R@1
R@10
Med r
R@1
R@10
Med r
SDT-RNN
9.6
41.1
16
8.9
41.1
16
DeFrag
14.2
51.3
10
10.2
44.2
14
SC-NLM
14.8
50.9
10
11.8
46.3
13
DeepVS
22.2
61.4
4.8
15.2
50.5
9.2
NIC
17.0
56.0
7
17.0
57.0
7
m-RNN-vgg
35.4
73.7
3
22.8
63.1
5
DeepSP
35.7
74.4
N/A
25.1
66.5
N/A
Ours
38.1
76.5
3
27.2
68.8
4
圖 6在Flickr30K數據集上的對比
Image Annotation
Image Search
R@1
R@10
Med r
R@1
R@10
Med r
Random
0.1
1.1
631
0.1
1.0
500
DeepVS
36.4
80.9
3
28.1
76.1
3
m-RNN
41.0
83.5
2
29.0
77.0
3
DeepSP
40.7
85.3
N/A
33.5
83.2
N/A
Ours
43.9
87.8
2
36.1
86.7
3
圖 7在MS-COCO數據集上的對比
可見本文方法在幾個公開數據集上都獲得了很好的效果
在圖像區域-短語數據集上的對比
我們提供了一個帶有標註的圖像區域-短語數據集MS-COCO-region,其中人工標定了一些顯著性物體,並在這些物體和短語之間建立了聯繫。
Region Annotation
R@1
R@5
R@10
Med r
Random
0.02
0.12
0.24
3133
DeepVS
7.2
18.1
26.8
64
m-RNN
8.1
20.6
28.2
56
Ours
10.8
22.6
30.7
42
圖 8在MS-COCO-region數據集上的對比
下圖是我們方法的可視化結果,可見我們的短語具有很強的描述性
此外,我們可以學習出圖像區域和短語的對應關係,如下
你可能還喜歡
點擊下方圖片即可閱讀
這是一封給程式設計師的1024挑戰書
阿里集團大數據深度解讀
本次雲棲大會上,阿里開源了哪些頂級項目?
關注「阿里技術」
把握前沿技術脈搏