輸入文本就可建模渲染了?!OpenAI祭出120億參數魔法模型!

2021-01-13 騰訊網

2021剛剛開啟,OpenAI又來放大招了!

能寫小說、哲學語錄的GPT-3已經不足為奇?那就來一個多模態『圖像版GPT-3』。

今天,OpenAI重磅推出了最新語言模型—DALL·E,它是GPT-3的120億參數版本,可以魔法一般按照自然語言文字描述直接生成對應圖片!

比如,在DALL·E模型中輸入「穿芭蕾舞短裙、正在遛狗的蘿蔔寶寶」,它就可以生成這樣一張圖片:

輸入「鱷梨形狀的扶手椅」,就是這樣:

甚至輸入「含OpenAI字樣的店鋪」,它也能成生成多種設計圖

DALL·E這項神技能衝上了各大社交平臺的熱搜。

Keras創始人Fran ois Chollet特意發文稱:

這看起來非常酷,尤其是「圖像生成」的部分。從原理上來看,它應該就是GPT-3在文本合成圖像方向上的擴展版本。

AI大神吳恩達也第一時間轉推點讚,還順帶挑選了一張滿意的藍色襯衫 + 黑色長褲的AI 生成圖。

OpenAI 聯合創始人、首席科學家 Ilya Sutskever 在推特上發文表道:人工智慧的長期目標是構建多模態神經網絡,即AI能夠學習不同模態之間的概念(文本和視覺領域為主),從而更好地理解世界。而 DALL·E 和 CLIP 使我們更接近「多模態 AI 系統」這一目標。

值得一提的是,DALL·E的命名也很特別。這個善於繪畫創作的模型名稱來源於人類藝術家薩爾瓦多·達利(Salvador Dalí)和皮克斯(Pixar)機器人WALL·E名稱的結合。

接下來,我們來詳細介紹一下它還有哪些硬核能力。

1

DALL·E的能力

DALL·E能夠為多語言成分結構的各種句子創造似是而非的圖像。研究人員通過一些交互視覺效果舉例說明了這一點。在下面的案例中,每個視覺效果的文本提示都是通過CLIP重新排序後,從512個文本提示中的前32個獲得的,不採取任何手動選取(cherry-picking)。

控制屬性

研究人員測試了DALL·E修改目標物體的能力,包括修改相應的屬性以及出現的次數。

文本提示:五邊形的綠色鍾。

繪製多個目標

同時控制多個目標物體、以及它們的屬性、空間關係是一個全新的挑戰。

例如,「一隻戴著紅帽子、黃手套、藍襯衫和綠褲子的刺蝟」。要正確地解釋這句話,DALL·E 不僅要正確地將每件衣服與動物組合在一起,還要將(帽子、紅色)、(手套、黃色)、(襯衫、藍色)和(褲子,綠色)形成各種聯想,而且不能混淆它們。

文本提示:一堆三維立方體:紅色的立方體在綠色立方體的頂部;綠色立方體在中間;藍色立方體在底部。

雖然DALL·E確實為少量目標的屬性和位置提供了某種程度的可控性,但成功率取決於標題文本的語言措辭。

隨著目標的增多,DALL·E容易混淆目標與顏色之間的關聯,成功率會急劇降低。研究人員注意到,在這些場景中,DALL·E對於標題文本的重新表述是脆弱的、可替代的,語義上等價的標題文本通常不會產生正確的解釋。

可視化透視與三維

研究人員發現DALL·E還能夠控制場景的視點和渲染場景的3D樣式。

文本提示:坐在田野上的體素化模型水豚。

為了進一步驗證DALL·E的這個能力,研究人員測試了DALL·E在同等視角下重複繪製知名人物頭部的能力,並發現DALL·E可以成功恢復旋轉頭部的平滑動畫。

文本提示:荷馬半身像。

DALL·E能夠將某些類型的光學畸變(Optical Distortions)應用到具體場景中,正如我們在「魚眼透鏡視圖(Fisheye Lens View)」和「球形全景圖(Spherical Panorama.)」等場景中看到的那樣。它促使研究人員探索其產生光學反射的能力。

文本提示:一個白色的立方體看著自己在鏡子裡的倒影;一個白色的立方體看著鏡子裡的自己。

可視化內部和外部結構

「特寫鏡頭(Extreme Close-up View)」和「x射線(X-Ray)」風格的案例使研究人員進一步探索了DALL·E運用橫截面視角繪製內部結構和用宏觀圖像繪製外部結構的能力。

文本提示:核桃的橫截面圖。

推斷上下文細節

將文本翻譯成圖像的任務是不明確的:一個標題文本通常可以對應無限多種圖像,換句話說,圖像不是唯一確定的。例如,假如標題文本是「日出時,坐在田野上的水豚的繪畫像。根據水豚的方位,可能需要畫一個陰影,但這個細節沒有被明確提及。

研究人員探討了DALL·E在以下三種情況下解決無規範標準問題的能力:改變風格、設置和時間;在各種不同的情況下繪製同一目標圖像;在生成目標圖像上書寫指定文本。

文本提示:帶有藍色草莓的彩色玻璃窗。

利用不同程度的可靠性,DALL·E為通過自然語言實現3D渲染引擎功能提供了一種途徑。它可以獨立地控制少量目標的屬性,並在有限的範圍內控制目標的數量以及它們之間的排列方式。它還可以控制渲染場景的位置和角度,並且根據角度和照明條件生成精確且規範的已知目標。

與3D渲染引擎不同,3D渲染引擎的輸入必須明確且完整,當標題文本暗示圖像必須包含未明確的特定細節時,DALL·E通常能夠「填補空白」。

應用案例

研究人員探討了上述功能在時尚設計和室內設計中的應用。

文本提示:一位穿著橘色和黑色相間襯衫的男性人體模特。

文本提示:客廳中有兩個白色的扶手椅和一幅鬥獸場的畫,這幅畫掛在現代樣式壁爐的上方。AI生成的圖像:

組合不相關的概念

語言的構成本質使人們能夠將概念描述集成在一起,用以描述真實和虛構的事物。OpenAI發現,DALL·E還具有將完全不同的idea結合起來以合成物體的能力,其中有些物體不可能在現實世界中存在。

OpenA在兩種情況下探索這種能力:將各種概念的特質傳遞給動物,以及從不相關的概念中汲取靈感來設計產品。

文本提示:豎琴狀的蝸牛。

在上一部分中探討了DALL·E在生成真實物體的圖像時結合無關概念的能力。接下來,OpenAI通過在藝術的背景下的三種插圖探索這種能力:動物和物體的擬人化版本、動物嵌合體、表情符號。

文本提示:長頸鹿烏龜合體的專業高質量插圖,模仿烏龜的長頸鹿,由烏龜變成的長頸鹿。

零樣本視覺推理

可以僅根據說明和提示來指示GPT-3執行多種任務,而無需任何額外訓練。例如,當提示短語「將『在公園裡walking狗的人』被翻譯成法語:」時,GPT-3會回答「un homme quipromèneson chien dans le parc。此功能稱為零樣本推理。

OpenAI發現DALL·E將此功能擴展到了視覺領域,並且在以正確的方式提示時,能夠執行多種圖像到圖像的翻譯任務。

文本+圖像提示:參照上面的貓在下面生成草圖。

OpenAI驚訝地發現DALL·E居然有這種神奇的能力,因為他們沒有對神經網絡或訓練程序進行任何修改。

受這些結果的啟發,OpenAI通過在Raven的漸進矩陣上進行測試來衡量DALL·E對於解決類推推理問題的能力,這是一種視覺智商測試,在20世紀得到了廣泛應用。

文本+圖像提示:一個幾何形狀序列。

地理知識

OpenAI 發現DALL·E了解地理事實、地標和街區。它對這些概念的了解在某些方面出奇地精確,而在另一些方面卻有缺陷。

文本提示:中國食物的圖片。

時間知識

除了探索DALL·E關於隨空間變化的概念的知識外,OpenAI還探索了其隨時間變化的概念的知識。

文本+圖像提示:20年代發明的電話。

2

總結:方法和先前工作

DALL·E是一個僅有解碼器的Transformer架構,它可以接收1280個token的文本和圖像作為單個流(文本為256個token,圖像為1024個token),並對它們全部進行自動回歸建模。

它的64個自注意力層中的每一個都具有注意力mask,使每個圖像token都可以匹配所有文本token。DALL·E對文本token使用標準的因果mask,以行、列或卷積注意模式對圖像token使用稀疏注意,具體取決於層數。

OpenAI計劃在下一篇論文中提供有關DALL·E架構和訓練過程的詳細信息。

與VQVAE-2中使用的rejection sampling類似,OpenAI使用CLIP對每個文本生成的512個採樣中的前32個進行排名。此過程也可以看作是一種語言指導的搜索,會對樣本質量產生巨大影響。

GPT-3已經向我們展示,可以用語言來指示大型神經網絡執行各種文本生成任務。Image GPT則表明,同樣類型的神經網絡也可以用來生成高保真的圖像。OpenAI進一步擴展了這些發現,以表明通過語言操縱視覺概念是觸手可及的。

與GPT-3一樣,DALL·E是一種Transformer語言模型。OpenAI認為,涉及生成模型的工作可能會產生重大而廣泛的社會影響。因此未來,OpenAI會計劃分析像DALL·E這樣的模型如何與社會問題聯繫起來,例如對某些工作流程和專業的經濟影響,模型輸出中可能存在的偏見以及該技術所隱含的長期道德挑戰。

最後,大家對DALL·E 這個的神經網絡模型有什麼應用上的期待呢?二維設計師?

又會覺得它會引導什麼AI革命嗎?又或者覺得它會存在很多不可避免的限制?

直線網公眾號,第一時間學習最新教程,看最新行業動態!!

相關焦點

  • OpenAI祭出120億參數魔法模型!從文本合成圖像栩栩如生,仿佛擁有...
    OpenAI最新發布了一個名叫 DALL·E 的神經網絡模型,它可以魔法一般按照自然語言文字描述直接生成對應圖片!效果如下所示:文本提示:鱷梨形狀的扶手椅。AI生成的圖像:這生產效果真是堪稱神奇!自然語言與視覺的壁壘正在被逐漸打通。
  • OpenAI 祭出 120 億參數魔法模型:從文本合成圖像栩栩如生,仿佛...
    今天,OpenAI 重磅推出了最新語言模型—DALL·E,它是 GPT-3 的 120 億參數版本,可以魔法一般按照自然語言文字描述直接生成對應圖片!比如,在 DALL·E 模型中輸入 「穿芭蕾舞短裙、正在遛狗的蘿蔔寶寶」,它就可以生成這樣一張圖片:
  • OpenAI 發布兩個 GPT-3 模型,圖像匹配文本 CLIP 和 文本生成圖像...
    因此,OpenAI 和其它地方的研究者試圖將圖像與文本結合起來,讓 AI 更好地理解人類日常事物的概念。CLIP 和 DALL·E 試圖從兩個不同的方向解決這一問題。DALL·E,從描述生成圖像DALL·E  是 GTP-3 的120億參數版本,與 CLIP 不同的是,DALL·E 被訓練於從一段描述中生成圖像,以表示自然語言所表達的概念。
  • 這個人工智慧模型可將文本轉換成生動的圖像
    比如生成下面這些穿著芭蕾舞裙揮舞著光劍的熊貓寶寶:OpenAI在一篇博文中表示,該系統是具有裡程碑意義的GPT-3語言模型的120億參數版本。DALL-E模型具有多種功能,包括創建動物和物體的擬物化版本,以合理的方式展示相關的概念,渲染文本,以及對現有圖像進行轉換。比如在該模型中選定「與貓有關的文本關鍵詞」,同時選擇給定的其中一種貓類型,最終系統會自動生成一系列與貓主題有關的圖像,並且風格呈現多樣化。
  • 文本一鍵生成圖像?OpenAI發布新模型,吳恩達前來點讚
    過去的2020年,人工智慧研究組織OpenAI打造的1750億參數文本生成器GPT-3火爆全球。用它撰寫的博客文章成功欺騙了很多人類讀者。不少業內人士認為,GPT-3對AI行業具有顛覆力量。可以看到,自然語言處理的神經網絡規模越來越大,功能也越來越豐富。
  • 文本秒生成圖像,震驚業界!詳解OpenAI兩大AI模型
    一、GPT-3「繼承者」:看文繪圖的DALL·EDALL·E的名字取自藝術家Salvador Dali和皮克斯動畫片機器人總動員(WALL-E),而與GPT-3一樣,它也是一個具有120億參數的Transformer語言模型,不同的是,GPT-3生成的是文本,DALL·E生成的是圖像。▲Dali代表作《記憶的永恆》和機器人總動員海報。
  • 文本秒生成圖像,震驚業界,詳解OpenAI兩大AI模型
    GPT-3「繼承者」:看文繪圖的DALL·EDALL·E的名字取自藝術家Salvador Dali和皮克斯動畫片機器人總動員(WALL-E),而與GPT-3一樣,它也是一個具有120億參數的Transformer語言模型,不同的是,GPT-3生成的是文本,DALL·E生成的是圖像。
  • 文本秒生成圖像,震驚業界——詳解OpenAI兩大AI模型
    01.GPT-3「繼承者」:看文繪圖的DALL·EDALL·E的名字取自藝術家Salvador Dali和皮克斯動畫片機器人總動員(WALL-E),而與GPT-3一樣,它也是一個具有120億參數的Transformer語言模型,不同的是,GPT-3生成的是文本,DALL·E生成的是圖像。
  • 引燃AI社區,不用跨界也能從文本生成圖像,OpenAI新模型打破自然...
    DALL·E:從文本生成圖像DALL·E 是 GPT-3 的 120 億參數版本,經文本 - 圖像對數據集訓練後,可基於文本描述生成圖像。DALL·E 這個名稱來源於皮克斯動畫經典作品《機器人總動員(WALL·E)》。有意思的是,它還可以將動物和物體擬人化,將一些無關的概念以一種合理的方式組合起來。
  • 「幹掉」程式設計師飯碗後,OpenAI 又對藝術家下手了!
    【CSDN 編者按】去年 OpenAI 發布了擁有 1750 億個參數的 GPT-3,而今年 OpenAI又發布了 GPT-3 上的重要突破:DALL·E & CLIP,或許這是 GPT-4 的熱身?整理 | 鄭麗媛AI 從上世紀 50 年代首次提出,經過幾十年的發展已愈發先進。
  • OpenAI發布GPT3 api調用接口!可處理幾乎所有英文問題
    大數據文摘出品作者:牛婉楊、笪潔瓊兩周前,OpenAI又放了個大招:GPT3突然放出,其參數量達到1750億,相當於1600個GPT1的大小,光把它用fp16半精度載入內存都得300GB,這還不包括實際訓練中需要存儲地梯度等中間變量
  • 引燃AI社區,OpenAI新模型打破自然語言與視覺次元壁
    DALL·E:從文本生成圖像DALL·E 是 GPT-3 的 120 億參數版本,經文本 - 圖像對數據集訓練後,可基於文本描述生成圖像。DALL·E 這個名稱來源於皮克斯動畫經典作品《機器人總動員(WALL·E)》。有意思的是,它還可以將動物和物體擬人化,將一些無關的概念以一種合理的方式組合起來。
  • 1750億參數,史上最大AI模型GPT-3上線:不僅會寫文,答題,還懂數學
    GPT-3:我是 GPT-2 的「究極進化版」2019 年初,OpenAI 發布了通用語言模型 GPT-2,能夠生成連貫的文本段落,在許多語言建模基準上取得了 SOTA 性能。這一基於 Transformer 的大型語言模型共包含 15 億參數、在一個 800 萬網頁數據集上訓練而成。
  • 瘋模渲染大師教程|在3dmax建模時怎麼快速彎曲三維效果圖的模型?
    瘋模渲染大師教程:在3dmax建模時怎麼快速彎曲三維效果圖的模型?這篇是食住玩和廣大效果圖設計師對3dmax學習的第五章常用功能篇5.7節教程——在3dmax建模時怎麼快速彎曲3dmax的模型?瘋模渲染大師教程建模彎曲3dmax模型?步驟1、以下操作示範的演示過程步驟中,是以櫃門門板舉例,畢竟確實市面上有弧形的櫃門及弧形的門板。
  • OpenAI重磅推出語言模型DALL·E和圖像識別系統CLIP
    這兩個模型是OpenAI第三代語言生成器的一個分支。兩種神經網絡都旨在生成能夠理解圖像和相關文本的模型。OpenAI希望這些升級後的語言模型能夠以接近人類解釋世界的方式來解讀圖像。 2020年5月,OpenAI發布了迄今為止全球規模最大的預訓練語言模型GPT-3。GPT-3具有1750億參數,訓練所用的數據量達到45TB。
  • OpenAI推出DALL-E模型,一句話即可生成對應圖像
    今天,其博客宣布,推出了兩個結合計算機視覺和NLP結合的多模態模型:DALL-E和CLIP,它們可以通過文本,直接生成對應圖像,堪稱圖像版「GPT-3」。 比GPT-3更牛的東西,還真被Open AI 搞出來了。最近,OpenAI官宣了一個基於Transformer的語言模型--DALL-E,使用了GPT-3的120億參數版本。
  • OpenAI的10億AGI夢何時實現?
    其目的在於訓練大規模人工智慧模型,這些人工智慧模型可從出版的書籍、教學手冊、歷史課、人力資源指南和其他公開來源中獲取數十億頁的文本。比如:  英偉達自然語言處理模型,該模型包含 83億參數或模型內部可用於預測的可配置變量;  微軟圖靈模型,該模型包含 170 億參數,是世界上最大的公開可用的語言 AI 模型;  Facebook 最近開源的 Blender 聊天機器人框架
  • 性能堪比GPT-3,但參數量僅為0.1%,LMU團隊推出NLP最強文本生成模型
    模型越大,性能越佳?答案可能是不一定。在NLP領域,談到超大模型必然想到預訓練語言模型GPT-3,自今年3月份對外開放以來,其因超大模型和超強性能頻頻刷屏。GPT-3擁有1750億參數量,約有700G大小,一次訓練成本高達上百萬美元。1750億是什麼概念?去年2月份,OpenAI推出的GPT-2參數量為僅15億,是它的1\116。
  • 《安娜卡列尼娜》文本生成——利用 TensorFlow 構建 LSTM 模型
    - 模型訓練:設置模型參數對模型進行訓練- 生成新文本:訓練新的文本主題:整個文本將基於《安娜卡列妮娜》這本書的英文文本作為 LSTM 模型的訓練數據,輸入為單個字符,通過學習整個英文文檔的字符(包括字母和標點符號等)來進行文本生成。在