GAN--4

强颜欢笑 提交于 2020-01-23 19:31:22

极大似然估计

找一个θ,使得Pdata和PG越接近越好
加上log不影响求取θ,logA*logB=log(A+B),累乘变累加
*

KL divergence又叫相对熵。相对熵是一些优化算法,例如最大期望算法的损失函数。此时参与计算的一个概率分布为真实分布,另一个为理论分布,相对熵表示使用理论分布拟合真实分布时产生的信息损耗。

在这里插入图片描述
PG和Pdata的Divergence越接近越好
问题: PG和Pdata的公式未知 怎么计算这个divergence
在这里插入图片描述
train discriminator时要做什么
详见GAN–1
————————————————————————————————————————————

GAN算法

D可以多次迭代。从Pdata(x)中取样m个x,取m个噪声z,获得生成的数据G(z),更新θd最大化这个式子。
G只有一次。取m个噪声,更新θg最小化这个式子。
在这里插入图片描述

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!