亞馬遜近日公布,開發了一款新的AI模型,可以把產品描述文字轉換成圖片,幫助消費者更好查找商品,提升視覺搜索體驗。
利用GAN網絡合成圖片,使搜索體驗更直觀
亞馬遜表示,這款AI模型運用GAN(生成式對抗網絡),能夠成功合成圖片。GAN技術於2014年首次面世。
也就是說,亞馬遜開發的這款「視覺化產品搜索AI模型」,主要功能是合成產品圖片,所謂文字轉圖片,這裡的圖片不是賣家自己提供的產品實圖,而是系統根據產品名稱或title,自動合成的圖片,為消費者查找商品提供更直觀的視覺體驗,幫助其更快找到心儀的產品。
藍海億觀網了解到,這款AI新模型,不僅僅可以把搜索結果中的文字轉換成圖片,另外一個重要的新功能,就是在添加新的產品圖片的同時,保留「舊」圖片。
舉個例子,如果消費者搜索「women’s black pants(女士黑色褲子)」,在搜索結果中會出現相關產品,但原來的文字描述改為圖片展示;在「women’s black pants」基礎上,添加「capri(卡普裡褲,又稱為七分褲)」或「petite(小個子)」等其他搜索詞,搜索結果會顯示新的匹配圖片,但之前搜索結果中的產品圖片也保留。
除此之外,還有一個顏色模型,能夠生成與顏色搜索詞更加匹配的圖片。
該AI模型分兩步合成圖片,配有「長短時記憶」組件
據亞馬遜所說,該「視覺化產品搜索AI模型」,已經在四個不同的系統上進行測試,而這四個系統都使用StackGAN,一種「文字轉圖片GAN」。
藍海億觀網獲悉,亞馬遜新AI模型,是StackGAN的升級版,分兩步生成圖片。第一步,直接根據文字生成低解析度圖片;第二步,在生成的低解析度圖片基礎上,合成更高清圖片,有更細節的紋理和線條,產品顏色也更自然真實。
而且,新AI模型還添加了「長短時記憶」組件,簡稱LSTM。LSTM和GAN網絡結合,能夠保證消費者在搜索框中連續輸入搜索詞時,AI模型能夠不斷「精煉」對應的產品圖,實現輸入文字與合成圖片高度匹配。(藍海億觀網egainnews)