GANZoo:千奇百怪的生成對抗網絡,都在這裡了73個

2021-01-11 量子位

允中編譯整理

量子位出品|公眾號QbitAI

自從Goodfellow2014年提出這個想法之後,生成對抗網絡(GAN)就成了深度學習領域內最火的一個概念,包括LeCun在內的許多學者都認為,GAN的出現將會大大推進AI向無監督學習發展的進程。

於是,研究GAN就成了學術圈裡的一股風潮,幾乎每周,都有關於GAN的全新論文發表。而學者們不僅熱衷於研究GAN,還熱衷於給自己研究的GAN起名,比如什麼3D-GAN、BEGAN、iGAN、SGAN……千奇百怪、應有盡有。

今天,量子位決定帶大家逛逛GANs的動物園(園長:AvinashHindupur),看看目前世界上到底存活著多少GAN。

GAN—GenerativeAdversarialNetworks

3D-GAN—LearningaProbabilisticLatentSpaceofObjectShapesvia3DGenerative-AdversarialModeling

AdaGAN—AdaGAN:BoostingGenerativeModels

AffGAN—AmortisedMAPInferenceforImageSuper-resolution

ALI—AdversariallyLearnedInference

AMGAN—GenerativeAdversarialNetswithLabeledDatabyActivationMaximization

AnoGAN—UnsupervisedAnomalyDetectionwithGenerativeAdversarialNetworkstoGuideMarkerDiscovery

ArtGAN—ArtGAN:ArtworkSynthesiswithConditionalCategorialGANs

b-GAN—b-GAN:UnifiedFrameworkofGenerativeAdversarialNetworks

BayesianGAN—DeepandHierarchicalImplicitModels

BEGAN—BEGAN:BoundaryEquilibriumGenerativeAdversarialNetworks

BiGAN—AdversarialFeatureLearning

BS-GAN—Boundary-SeekingGenerativeAdversarialNetworks

CGAN—TowardsDiverseandNaturalImageDescriptionsviaaConditionalGAN

CCGAN—Semi-SupervisedLearningwithContext-ConditionalGenerativeAdversarialNetworks

CatGAN—UnsupervisedandSemi-supervisedLearningwithCategoricalGenerativeAdversarialNetworks

CoGAN—CoupledGenerativeAdversarialNetworks

Context-RNN-GAN—ContextualRNN-GANsforAbstractReasoningDiagramGeneration

C-RNN-GAN—C-RNN-GAN:Continuousrecurrentneuralnetworkswithadversarialtraining

CVAE-GAN—CVAE-GAN:Fine-GrainedImageGenerationthroughAsymmetricTraining

CycleGAN—UnpairedImage-to-ImageTranslationusingCycle-ConsistentAdversarialNetworks

DTN—UnsupervisedCross-DomainImageGeneration

DCGAN—UnsupervisedRepresentationLearningwithDeepConvolutionalGenerativeAdversarialNetworks

DiscoGAN—LearningtoDiscoverCross-DomainRelationswithGenerativeAdversarialNetworks

DualGAN—DualGAN:UnsupervisedDualLearningforImage-to-ImageTranslation

EBGAN—Energy-basedGenerativeAdversarialNetwork

f-GAN—f-GAN:TrainingGenerativeNeuralSamplersusingVariationalDivergenceMinimization

GoGAN—GangofGANs:GenerativeAdversarialNetworkswithMaximumMarginRanking

GP-GAN—GP-GAN:TowardsRealisticHigh-ResolutionImageBlending

IAN—NeuralPhotoEditingwithIntrospectiveAdversarialNetworks

iGAN—GenerativeVisualManipulationontheNaturalImageManifold

IcGAN—InvertibleConditionalGANsforimageediting

ngUsingaConditionalGenerativeAdversarialNetwork

ImprovedGAN—ImprovedTechniquesforTrainingGANs

InfoGAN—InfoGAN:InterpretableRepresentationLearningbyInformationMaximizingGenerativeAdversarialNets

LR-GAN—LR-GAN:LayeredRecursiveGenerativeAdversarialNetworksforImageGeneration

LSGAN—LeastSquaresGenerativeAdversarialNetworks

LS-GAN—Loss-SensitiveGenerativeAdversarialNetworksonLipschitzDensities

MGAN—PrecomputedReal-TimeTextureSynthesiswithMarkovianGenerativeAdversarialNetworks

MAGAN—MAGAN:MarginAdaptationforGenerativeAdversarialNetworks

MalGAN—GeneratingAdversarialMalwareExamplesforBlack-BoxAttacksBasedonGAN

MARTA-GAN—DeepUnsupervisedRepresentationLearningforRemoteSensingImages

McGAN—McGan:MeanandCovarianceFeatureMatchingGAN

MedGAN—GeneratingMulti-labelDiscreteElectronicHealthRecordsusingGenerativeAdversarialNetworks

MIX+GAN—GeneralizationandEquilibriuminGenerativeAdversarialNets(GANs

MPM-GAN—MessagePassingMulti-AgentGANs

MV-BiGAN—Multi-viewGenerativeAdversarialNetworks

pix2pix—Image-to-ImageTranslationwithConditionalAdversarialNetworks

PPGN—Plug&PlayGenerativeNetworks:ConditionalIterativeGenerationofImagesinLatentSpace

PrGAN—3DShapeInductionfrom2DViewsofMultipleObjects

—TextureSynthesiswithSpatialGenerativeAdversarialNetworks

SAD-GAN—SAD-GAN:SyntheticAutonomousDrivingusingGenerativeAdversarialNetworks

SalGAN—SalGAN:VisualSaliencyPredictionwithGenerativeAdversarialNetworks

SEGAN—SEGAN:SpeechEnhancementGenerativeAdversarialNetwork

SeqGAN—SeqGAN:SequenceGenerativeAdversarialNetswithPolicyGradient

SketchGAN—AdversarialTrainingForSketchRetrieval

SL-GAN—Semi-LatentGAN:Learningtogenerateandmodifyfacialimagesfromattributes

SRGAN—Photo-RealisticSingleImageSuper-ResolutionUsingaGenerativeAdversarialNetwork

SGAN—GenerativeImageModelingusingStyleandStructureAdversarialNetworks

SSL-GAN

StackGAN—StackGAN:TexttoPhoto-realisticImageSynthesiswithStackedGenerativeAdversarialNetworks

TGAN—TemporalGenerativeAdversarialNets

TAC-GAN—TAC-GAN—TextConditionedAuxiliaryClassifierGenerativeAdversarialNetwork

TP-GAN—BeyondFaceRotation:GlobalandLocalPerceptionGANforPhotorealisticandIdentityPreservingFrontalViewSynthesis

Triple-GAN—TripleGenerativeAdversarialNets

VGAN—GenerativeAdversarialNetworksasVariationalTrainingofEnergyBasedModels

VAE-GAN—Autoencodingbeyondpixelsusingalearnedsimilaritymetric

ViGAN—ImageGenerationandEditingwithVariationalInfoGenerativeAdversarialNetworks

WGAN—WassersteinGAN

WGAN-GP—ImprovedTrainingofWassersteinGANs

WaterGAN—WaterGAN:UnsupervisedGenerativeNetworktoEnableReal-timeColorCorrectionofMonocularUnderwaterImages

招聘

相關焦點

  • 一文看懂生成對抗網絡
    —Richard Feynman生成模型由一個參數數量比訓練數據少的多神經網絡構成,所以生成模型為了能夠產生和訓練數據相似的輸出就會迫使自己去發現數據中內在的本質內容。訓練Generative models的方法有幾種,在這裡我們主要闡述其中的Adversarial Training(對抗訓練)方法。
  • 生成對抗網絡的最新研究進展
    生成對抗網絡的工作原理給定一組目標樣本,生成器試圖生成一些能夠欺騙判別器、使判別器相信它們是真實的樣本。判別器試圖從假(生成)樣本中解析真實(目標)樣本。使用移動距離的優點是,它是連續的,即使實際和生成的數據在分布上沒有交集。此外,生成的圖像質量與損失值(源)之間存在相關性。缺點是,對每個生成器更新,我們都需要根據原始實現來進行判別器更新。此外,作者聲稱,降低權重是確保 1-lipschitz 約束的一種糟糕方法。
  • 生成式對抗網絡GAN的高級議題
    生成對抗網絡(GAN)就是一個幫你實現的新朋友。"GAN是過去10年機器學習中最有趣的想法。" - Facebook AI人工智慧研究總監Yann LeCun最近引入了生成對抗網作為訓練生成模型的新方法,即創建能夠生成數據的模型。它們由兩個"對抗"模式:生成模型G獲得數據和判別模型D來估計訓練數據提供的樣本的準確性。G和D可能是一個非線性映射函數,如多層感知。在生成對抗網絡(GAN)中,我們有兩個神經網絡在零和遊戲中相互對抗,其中第一個網絡,即生成器,其任務是欺騙第二個網絡,即鑑別器。
  • 基於生成對抗網絡的三維點雲自動修復
    為了在對點雲形狀修復補全中能保持形狀的精細結構信息,最近研究者提出了一種能夠自動修復補全三維點雲形狀的生成對抗網絡結構。針對形狀缺失的稠密點雲和稀疏點雲數據,該網絡在修復補全形狀缺失部分的同時能有效保持輸入點雲形狀的精細結構信息。《中國科學: 信息科學》在2020年第50卷第5期刊登了這一研究。
  • GAN(生成對抗網絡)萬字長文綜述
    GAN的基本介紹生成對抗網絡(GAN,Generative Adversarial Networks)作為一種優秀的生成式模型,引爆了許多圖像生成的有趣應用。GAN的基本概念GAN(Generative Adversarial Networks)從其名字可以看出,是一種生成式的,對抗網絡。再具體一點,就是通過對抗的方式,去學習數據分布的生成式模型。所謂的對抗,指的是生成網絡和判別網絡的互相對抗。
  • 機器不學習:生成對抗網絡-NIPS 2017對抗樣本攻防賽冠軍算法分享
    而與之相對的就是黑盒攻擊,顧名思義,攻擊者事先不知道要攻擊網絡的模型和具體細節。了解完背景知識後,下面我們正式進入NIPS攻防賽的實戰。比賽共分為三個項目,第一項是targeted attack,給定類別和圖像庫,目標是使得庫中的圖像都被錯分到給定類別上。
  • 18個生成對抗網絡(GAN)的絕妙應用!你確定不收藏一下?
    圖片來源:pexels.com/@gravitylicious生成對抗網絡(GAN)是生成模型的一種神經網絡架構。兩種模型(從博弈論的意義上來說)處於一種競爭狀態,生成器企圖愚弄判別器,而判別器則要同時處理生成案例和實際案例。經學習,生成模型可生成所需的新案例。生成對抗網絡具有極為具體的使用案例,一開始這些案例理解起來會有些困難。本文將回顧大量GAN的有趣應用,有助於你了解其能夠解決的案例類型。
  • 萬字綜述之生成對抗網絡(GAN)
    文章目錄如下:GAN的基本介紹生成對抗網絡(GAN,Generative Adversarial Networks)作為一種優秀的生成式模型,引爆了許多圖像生成的有趣應用。GAN的基本概念GAN(Generative Adversarial Networks)從其名字可以看出,是一種生成式的,對抗網絡。再具體一點,就是通過對抗的方式,去學習數據分布的生成式模型。所謂的對抗,指的是生成網絡和判別網絡的互相對抗。
  • 揭秘騰訊變臉魔法,生成對抗網絡GAN的威力是什麼?
    不管是創造了微視視頻特效製作量新紀錄的王者臉,還是在QQ上線的全球首創光頭特效,都是騰訊光影研究室利用生成式對抗網絡 GAN所製造的魔法。隨著GAN網絡在生成質量上的不斷提高,它越來越頻繁地落地到社交娛樂場景中,給用戶帶去最直觀、新鮮的AI體驗。左右互搏生成完美圖片,AI界的"網紅"技術那麼使得新型變臉特效得以實現的生成式對抗網絡 GAN,究竟是什麼?它是由美國科學家Ian Goodfellow發明,試圖讓計算機自己生成逼真圖片的AI技術。
  • 不到200 行代碼,教你如何用 Keras 搭建生成對抗網絡(GAN)
    它的核心思想是:同時訓練兩個相互協作、同時又相互競爭的深度神經網絡(一個稱為生成器 Generator,另一個稱為判別器 Discriminator)來處理無監督學習的相關問題。在訓練過程中,兩個網絡最終都要學習如何處理任務。通常,我們會用下面這個例子來說明 GAN 的原理:將警察視為判別器,製造假幣的犯罪分子視為生成器。一開始,犯罪分子會首先向警察展示一張假幣。
  • 程式設計師學習人工智慧,生成式對抗網絡(GAN)1,簡介與算法原理
    一、簡介生成式對抗網絡(GAN, Generative Adversarial Networks )是一種深度學習模型,是近年來複雜分布上無監督學習最具前景的方法之一。模型通過框架中(至少)兩個模塊:生成模型(Generative Model)和判別模型(Discriminative Model)的互相博弈學習產生相當好的輸出。原始 GAN 理論中,並不要求 G 和 D 都是神經網絡,只需要是能擬合相應生成和判別的函數即可。但實用中一般均使用深度神經網絡作為 G 和 D 。
  • 「GANs之父」Goodfellow 38分鐘視頻親授:如何完善生成對抗網絡...
    不過,有另一個AI盛會卻是全世界所有人都能參加的,叫做「AI WITH THE BEST」,已於今年9月在網絡世界裡召開。演講嘉賓有100多人,其中就有「GANs之父」Ian Goodfellow。什麼是對抗生成網絡(GANs)?
  • 【明星自動大變臉】最新StarGAN對抗生成網絡實現多領域圖像變換(附代碼)
    近日,香港科技大學、新澤西大學和韓國大學等機構在 arXiv 上聯合發表了一篇研究論文,提出了在同一個模型中進行多個圖像領域之間的風格轉換的對抗生成方法StarGan,突破了傳統的只能在兩個圖像領域轉換的局限性。
  • WGAN:Wasserstein 生成對抗網絡
    的損失函數無法指示訓練過程,缺乏一個有意義的指標和生成圖片的質量相關聯模式崩壞(mode collapse),生成的圖片雖然看起來像是真的,但是缺乏多樣性原理相對於傳統的GAN,WGAN只做了以下三點簡單的改動
  • 你真的懂對抗樣本嗎?一文重新思考對抗樣本背後的含義
    一些攻擊,如 FGS,IGS 和 PGD 都使用 L-∞範數來約束擾動圖像和原始圖像之間的距離。在這篇文章中,我們將探討對於 MNIST 數據集選擇ε的難點。我們也將看看最近有關不依賴於在原始圖像上進行擾動而生成對抗樣本的技術,探究這樣生成的圖片是否滿足對抗樣本的定義。
  • 【明星自動大變臉,嬉笑怒罵加變性】最新StarGAN對抗生成網絡實現多領域圖像變換(附代碼)
    圖1.這些模型的低效率是因為在學習K域的時候,需要訓練K(K−1)個生成器。圖2說明了如何在四個不同的域之間轉換圖像的時候,訓練十二個不同的生成器的網絡。即使它們可以從所有域圖像學習全局特徵,如形狀特徵學習,這種模型也是無效的,因為每個生成器不能充分利用整個訓練數據,只能從K學習的兩個領域。未能充分利用訓練數據很可能會限制生成圖像的質量。
  • ...曲線分析|gartner|知識圖譜|生成對抗網絡|intelligence|人工智慧
    Hype Cycle for Artificial Intelligence, 2019),如下圖:2019年AI成熟度曲線3、2018年的人工智慧技術成熟度曲線報告(Hype Cycle for Artificial Intelligence, 2018),如下圖:2018年AI成熟度曲線二、近年人工智慧領域的亮點技術介紹強化學習、生成對抗網絡
  • 程式設計師實戰,生成式對抗網絡(GAN)下篇,tensorflow實現
    linear函數的第二個參數為4*2=8#第一層 h0 = tf.tanh(linear(input, h_dim *2,'d0'))#第二層輸出,隱藏層神經元個數還是為8 h1 = tf.tanh(linear(h0, h_dim *2,'d1'))#h2為第三層輸出值 h2 = tf.tanh(linear(h1, h_dim *2, scope='d2'))#最終的輸出值 h3 = tf.sigmoid
  • ACM MM最佳論文全文:通過多對抗訓練,從圖像生成詩歌
    儘管我們不要求格律、韻律或其他傳統的詩歌技術,但仍要有詩歌結構和詩歌語言。在本研究中,我們將這一素質定義為詩意。例如,詩歌的長度一般有限;與圖像描述相比,詩歌一般偏好特定的詞語;詩歌中的語句應與同一主題相關,保持一致。為了應對以上挑戰,我們收集了兩個人類註解的詩歌數據集,在一個系統中通過集成檢索和生成技術來研究詩歌創作。
  • 循環生成網絡 CycleGan 原理介紹
    本文旨在解釋「循環生成網絡」的內部工作原理,以及如何將其應用於解決現實世界中的任務。介紹循環生成對抗網絡(簡稱CycleGans)[1]是功能強大的計算機算法,具有改善數字生態系統的潛力。 它們能夠將信息從一種表示形式轉換為另一種表示形式。