gan

生成对抗性网络GAN

纵然是瞬间 提交于 2019-12-20 00:18:37
同VAE模型类似,GAN模型也包含了一对子模型。GAN的名字中包含一个对抗的概念,为了体现对抗这个概念,除了生成模型,其中还有另外一个模型帮助生成模型更好地学习观测数据的条件分布。这个模型可以称作判别模型D,它的输入是数据空间内的任意一张图像x,输出是一个概率值,表示这张图像属于真实数据的概率。对于生成模型G来说,它的输入是一个随机变量z,z服从某种分布,输出是一张图像G(z),如果它生成的图像经过模型D后的概率值很高,就说明生成模型已经比较好地掌握了数据的分布模式,可以产生符合要求的样本;反之则没有达到要求,还需要继续训练。 两个模型的目标如下所示。 判别模型的目标是最大化这个公式:Ex[D(x)],也就是甄别出哪些图是真实数据分布中的。 生成模型的目标是最大化这个公式:Ez[D(G(z))],也就是让自己生成的图被判别模型判断为来自真实数据分布。 看上去两个模型目标联系并不大,下面就要增加两个模型的联系,如果生成模型生成的图像和真实的图像有区别,判别模型要给它判定比较低的概率。这里可以举个形象的例子,x好比是一种商品,D是商品的检验方,负责检验商品是否是正品;G是一家山寨公司,希望根据拿到手的一批产品x研究出生产山寨商品x的方式。对于D来说,不管G生产出来的商品多像正品,都应该被判定为赝品,更何况一开始G的技术水品不高,生产出来的产品必然是漏洞百出,所以被判定为赝品也不算冤枉

ON the study of generative adversarial network for corss-lingual voice conversion

落花浮王杯 提交于 2019-12-18 10:08:08
abstract 用Variational Autoencoding Wasserstein GAN (VAW-GAN) and cycle-consistent adversarial network (CycleGAN)实现跨语言的vc,保存了src的文本和tar的身份特征。不依赖语言的对齐,也不需要外部的ASR等。对两种语言的数据量要求都很少,而且性能和单语言的差不多。 introduction GAN网络在图像的风格迁移上有成功的应用。VAW-GAN【28】,CycleGAN【29-31】, StarGAN【32】在vc上也有不错的效果。 之前在cross-lingual任务上的方法有codebook mapping 和 GMM,但是他们需要同一个人同时录制两种语言,这点在实际中很难做到。或者是找两种语言系统的音素或者声学聚类,从而摆脱对平行数据的依赖。 PPGs构建了source和target speaker之间的桥梁,但是它依赖于ASR系统的性能。还可以通过unit selection和迭代帧对齐的方法找到source和target frame pairs的对齐,但是因为不精确的对齐,性能也还有提升的空间。  VAW-GAN用隐向量解释观察结果,而不是学到paired映射函数。CycleGAN用对抗loss和周期一致性loss同时学到前向和反向映射

WGAN的详细讲解

一笑奈何 提交于 2019-12-18 02:28:34
知乎: 令人拍案叫绝的Wasserstein GAN https://zhuanlan.zhihu.com/p/25071913 Google这一篇更为基础、详细 Google: GAN — Wasserstein GAN & WGAN-GP https://medium.com/@jonathan_hui/gan-wasserstein-gan-wgan-gp-6a1a2aa1b490 来源: CSDN 作者: qq_41422774 链接: https://blog.csdn.net/qq_41422774/article/details/103588458

GAN的一些技巧

人盡茶涼 提交于 2019-12-17 18:46:48
GAN的技巧: 1.对真实图片进行归一化,与生成图片分布一样,也就是[-1,1]. 2.随机噪声使用高斯分布,不要使用均匀分布,也就是在代码中使用torch.randn,而不是torch.rand 3.初始化权重很有必要,详细见model.py中的weight_init函数 4.在训练时,在鉴别器中产生的noise,生成器也要用这个noise进行参数,这点很重要。我最开始的时候就是鉴别器随机产生noise,生成器也随机产生noise,训练得很不好。 5.在训练过程中,很有可能鉴别器的loss等于0(鉴别器太强了,起初我试过减小鉴别器的学习率,但还是会有这个情况,我猜想原因是在某一个batch中,鉴别器恰好将随机噪声产生的图片和真实图片完全区分开,loss为0),导致生成器崩溃(梯度弥散),所以最好按多少个epoch保存模型,然后在导入模型再训练。个人觉得数据增强和增大batchsize会减弱这种情况的可能性,这个还未实践。 此外可以参考: GAN的相关原理与技巧 来源: CSDN 作者: weixin_39272255 链接: https://blog.csdn.net/weixin_39272255/article/details/103582631

生成对抗网络学习——WGAN

笑着哭i 提交于 2019-12-17 03:46:13
文章目录 一、WGAN原理 第一部分:原始GAN究竟出了什么问题? 第一种原始GAN形式的问题 第二种原始GAN形式的问题 第三部分:Wasserstein距离的优越性质 第四部分:从Wasserstein距离到WGAN WGAN,全称是Wasserstein GAN。 【paper】: https://arxiv.org/abs/1701.07875 【GitHub】: 参考资料: 原理: 1、 令人拍案叫绝的Wasserstein GAN 2、 李弘毅GAN网络MOOC 代码解读: 【1】WGAN-GP代码及注释 https://blog.csdn.net/qq_20943513/article/details/73129308 【2】包括了DCGAN,LSAGN,WGAN,以及WGAN-GP的代码 https://blog.csdn.net/Diana_Z/article/details/87184465 【3】WGAN代码解读及实验总结 https://blog.csdn.net/CLOUD_J/article/details/94392474 一、WGAN原理 自从2014年Ian Goodfellow提出以来, GAN就存在着训练困难、生成器和判别器的loss无法指示训练进程、生成样本缺乏多样性等问题 。从那时起,很多论文都在尝试解决,但是效果不尽人意

研究生第一篇英文论文之ON THE EFFECTS OF SKIP CONNECTIONS IN DEEP GENERATIVE ADVERSARIAL MODELS

被刻印的时光 ゝ 提交于 2019-12-16 18:44:07
前言: 前两天投了人生中的一篇英文的论文(ICME),其实论文的创新的并没有很多而且数据集单一,就是单论实验结果还不错,这篇文章就花了不到两个周的时间写作,时间确实有点赶所以完成度不是很高。其实研究生毕业之后也不一定继续搞科研写稿子,所以投论文对于我而言中不中其实没啥关系,主要是练习一下英文写作,以及能清楚地表达出自己的观点给出相关的证明即可。ok接下来就介绍一下自己的几个实验部分。 实验一: 我们论文中的第一个实验是提出两种提高GAN训练稳定的技巧,(1):循环学习率,原文见 此链接 (2):在条件GAN中类别损失递减。 循环学习率: 深度学习中学习率是一个非常重要的超参,对于这个超参的设置方法有以下三种方式,第一设置一个固定的学习率,第二: 学习率递减,初始学习率设置一个较大的数,然后随着一定的步数之后减少到一个固定之后然后保持不变,第三:也是我们论文里面说的循环学习率,简而言之是周期性的改变学习率的值,各种比赛中大家都说好,其中的原理可以看一下循环学习率的原文。 条件GAN中类别损失递减: 我们一般使用AC-GAN做条件图像生成而言,AC-GAN中包含两个损失函数类别损失和对抗损失,一般情况下论文中对于类别损失设置一个较大的系数,对于对抗损失设置一个较小的系数,这样做的一个原因是条件生成图像的时候,训练前期的时候图像的无法保证生成的图像是否为真,所以更无法判断类别是否正确

GAN Tutorial Workshop Blog

自作多情 提交于 2019-12-14 14:02:48
Tutorials & Workshops & Blogs Columbia Advanced Machine Learning Seminar New Progress on GAN Theory and Practice [Blog] Implicit Generative Models — What are you GAN-na do? [Blog] How to Train a GAN? Tips and tricks to make GANs work [Blog] NIPS 2016 Tutorial: Generative Adversarial Networks [arXiv] NIPS 2016 Workshop on Adversarial Training [Web] [Blog] On the intuition behind deep learning & GANs — towards a fundamental understanding [Blog] OpenAI - Generative Models [Blog] SimGANs - a game changer in unsupervised learning, self driving cars, and more [Blog] Deep Diving into GANs: from

GAN论文 理论以及机器学习

烂漫一生 提交于 2019-12-14 12:37:16
Theory & Machine Learning A Classification-Based Perspective on GAN Distributions [arXiv] A Connection between Generative Adversarial Networks, Inverse Reinforcement Learning, and Energy-Based Models [arXiv] A General Retraining Framework for Scalable Adversarial Classification [Paper] Activation Maximization Generative Adversarial Nets [arXiv] AdaGAN: Boosting Generative Models [arXiv] Adversarial Autoencoders [arXiv] Adversarial Discriminative Domain Adaptation [arXiv] Adversarial Generator-Encoder Networks [arXiv] Adversarial Feature Learning [arXiv] [Code] Adversarially Learned Inference

GAN应用视觉论文列表推荐

陌路散爱 提交于 2019-12-14 12:32:23
Applied Vision 3D Object Reconstruction from a Single Depth View with Adversarial Learning [arXiv] 3D Shape Induction from 2D Views of Multiple Objects [arXiv] A step towards procedural terrain generation with GANs [arXiv] [Code] Abnormal Event Detection in Videos using Generative Adversarial Nets [arXiv] Adversarial Generation of Training Examples for Vehicle License Plate Recognition [arXiv] Adversarial nets with perceptual losses for text-to-image synthesis [arXiv] Adversarial Networks for Spatial Context-Aware Spectral Image Reconstruction from RGB [arXiv] Adversarial Networks for the

gan判别器:可学习的损失函数

一曲冷凌霜 提交于 2019-12-11 23:49:33
gan判别器:可学习的损失函数gan判别器:可学习的损失函数 gan判别器:可学习的损失函数 GAN 网络提出了一种可学习的损失函数,即判别器(Discriminator),自适应地度量两个总体分布之间的差异,即连续的概率分布。(不同于 MSE、MAE、Huber Loss 等固定的损失函数,度量两个样本之间的差异,即离散的概率分布)。 新的改变 我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客: 全新的界面设计 ,将会带来全新的写作体验; 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示; 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示; 全新的 KaTeX数学公式 语法; 增加了支持 甘特图的mermaid语法 1 功能; 增加了 多屏幕编辑 Markdown文章功能; 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间; 增加了 检查列表 功能。 功能快捷键 撤销: Ctrl/Command + Z 重做: Ctrl/Command + Y 加粗: Ctrl/Command + B 斜体: Ctrl/Command + I 标题: Ctrl/Command +