前言:
前两天投了人生中的一篇英文的论文(ICME),其实论文的创新的并没有很多而且数据集单一,就是单论实验结果还不错,这篇文章就花了不到两个周的时间写作,时间确实有点赶所以完成度不是很高。其实研究生毕业之后也不一定继续搞科研写稿子,所以投论文对于我而言中不中其实没啥关系,主要是练习一下英文写作,以及能清楚地表达出自己的观点给出相关的证明即可。ok接下来就介绍一下自己的几个实验部分。
实验一:
我们论文中的第一个实验是提出两种提高GAN训练稳定的技巧,(1):循环学习率,原文见此链接(2):在条件GAN中类别损失递减。
循环学习率:
深度学习中学习率是一个非常重要的超参,对于这个超参的设置方法有以下三种方式,第一设置一个固定的学习率,第二: 学习率递减,初始学习率设置一个较大的数,然后随着一定的步数之后减少到一个固定之后然后保持不变,第三:也是我们论文里面说的循环学习率,简而言之是周期性的改变学习率的值,各种比赛中大家都说好,其中的原理可以看一下循环学习率的原文。
条件GAN中类别损失递减:
我们一般使用AC-GAN做条件图像生成而言,AC-GAN中包含两个损失函数类别损失和对抗损失,一般情况下论文中对于类别损失设置一个较大的系数,对于对抗损失设置一个较小的系数,这样做的一个原因是条件生成图像的时候,训练前期的时候图像的无法保证生成的图像是否为真,所以更无法判断类别是否正确,如果我们设置了同样的系数的话,会导致GAN训练的很不稳定。但是如果对抗损失设置的较大的话,训练后期会影响图像的类别,所以我们提出首先将前期的时候对于对抗损失设置一个较大的系数,但是后期的时候将对抗损失逐渐减小。
FID评分:
首先讲一下什么是FID,我啥使用FID做评分以及在我这个数据集上使用FID合不合理,FID是用来计算你生成的图像和真实图像差异大不大,PS(粗浅的理解,还是要看原论文人家怎么说的),首先你把真实数据存放在文件夹1,然后你把生成图像存放在文件夹2,在然后你使用inception-v3在imagenet上预训练好的模型得到对应数据集的特征1,特征2,最后你套用FID方法,计算特征1和特征2差异输出结果即可。
如我上面说的FID是通过计算两个数据集之间的特征,来评价生成图像的好坏,所以最重要的是你得的这个特征能表示你的对应的图像,我用的是动漫数据集而提取特征的方式我使用的是inception-v3在imagenet上预训练好的模型,显然一张动漫图像经过inception-v3输出的2048维向量不能表示动漫图像特征,但是为啥我还是用了呢?首先是有篇论文上说可以这样用用。然后呢从实验结果直观上,我也发现生成图像质量越高的话,FID分数也越小,所以我才这样用的。
PS一下有篇做动漫生成的论文他是使用在Illustation2vec预训练好的模型提取的图像特征,然后再用FID评分,Illustation2vec这个本身就是在动漫图像进行训练的,所以用这个模型提取动漫图像的特征完全没有任何问题,但是我不这样用的一个原因是Illustation2vec这个使用chair写的,我不会呜呜,总不能让我直接抄一下人家论文是咋写的,然后随便打分吧。
实验结果以及解释:
第一行是我用的残差网络生成的结果,第二行我对鉴别器使用循环学习率的结果,第三行是我使用对抗损失递减的结果。首先我的预期是使用循环学习率生成结果更好,FID分数更小,这点是符合我的猜想的,对于对抗损失递减我认为生成的类别更加好一些,举个例子吧眼睛颜色要一致,头发颜色要更加鲜亮,但是实验结果其实效果并不明显,这点其实说明只要对抗损失和类别损失差异不是很大情况下,对生成图像影响不是很大。
实验2:
我们论文的第二个实验是探究一下残差网络为什么对图像生成的影响,残差网络首次被提出来是应用图像分类之上,效果是相当不错的,对于残差网络在图像分类上为什么效果好的解释有两个,第一个原论文中的恒等映射,另一个是残差网络相当于一个集成模型,残差网络能选择最优的路径生成图像。虽然没有一篇论文专门的讲如何在GAN中使用残差网络,但是其实已经有很多GAN的论文用到残差网络了,具体可以看一下SAGAN, SR-GAN这两篇论文,但是本文中我们对生成器中的残差块做了一点改动如下所示。
实验设置
本节我们分析了一下残差网络为啥有效,我们做了三个实验,第一个baseline模型是残差网络深度为8,且a=1模型。第一个实验我们将a设置为0,也即是残差块中只有卷积层也叫Convolution-GANs,第二,三个实验是我们将a设置成0.1和10,生成结果如下所示。
实验结果分析:
现象一:第一行是a=0的结果,我们发现无论是直观上还是FID分数上,生成质量都明显的下降,而且会出现严重的模式坍塌 PS在论文中我没有展示这样的结果。
现象二:从整体来看我们可以发现提高a的值有利于GAN提高生成结果,且模式坍塌有了一定的解决。
对于这个实验现象的解释,我们提出了一个自己观点:残差网络的输出结果包含两个结果,第一个是直接skip模块的输出,另一个是stacking卷积模块的输出,我们认为skip模块中包含是图像的原始特征,而经过stacking卷积模块之后提取是图像主要特征输出的范围有一定的限制。但我们增加skip的系数的时,对于整个残差块而且其输出的范围更加的大,所以多样性也会更好。
来源:CSDN
作者:YYLin-AI
链接:https://blog.csdn.net/qq_41776781/article/details/103566685