https://blog.csdn.net/suyebiubiu/category_9372769.html
生成式模型的基础:极大似然估计
-
生成式模型都源于极大似然估计
- 显示概率分布
- 马尔科夫链/BM
- 隐式概率分布
- GSN
- GAN—唯一一个从数据观测一步到位的模型
以前比较强大的模型都源于HMM模型
- 显示概率分布
-
人工智能两个阶段
- 感知阶段
- 认知阶段
-
GAN(生成式模型
- 生成数据样本的能力
- 反应了他的理解(不能产生就没有理解)
GANs
-
和以前模型的的区别
- 使用了 latent code(缺省编码)
- 数据会逐渐统一 (unlike variational methods)
- 不需要马尔可夫链
- 被认为可以生成最好的样本
- (没有办法评价No good way to quantify this
-
核心思想:博弈论的纳什均衡——对抗达到平衡(共同进步)
- 生成器:尽量生成真实的分布——努力让判别器认不出来
- 输入向量,输出图或序列。。。
- 不同的向量表示不同的特征
- 想要发现数据的分布
- 假设一个分布
- 判别器:区分是生成的还是真实的(努力让他能认出生成器生成的数据)
- 输入:图片
- 输出:标量评分
- 分越大,越真实–1
- 分小则假–0.1
- 生成器:尽量生成真实的分布——努力让判别器认不出来
-
算法
-
固定生成器G,从真假图中采样,来更新(训练)判别器D–>D1
- 版本1:$对V(G_0,D)找到D_0^* $===>D1
- 版本2:实际使用最小化交叉熵来进行二分类
-
- 目标函数==》max——均值代替期望
- 原来是对概率求和–>期望–>均值(
- 多迭代几次:$\theta_d<–\theta_d+\eta d \tilde{V} $
-
-
固定D1,训练生成器G–>G1
- v1:===>找到G1
- v2:假设
- –目标函数是一样的
- 与生成器无关,可以不考虑
- $\theta_G<–\theta_G- \eta d \tilde{V} $
- –目标函数是一样的
-
重复到平衡
-
-
生成器
- 极大似然估计
- —求和近似于期望
- —后面的只与真实数据有关
- ----=最小化KL散度(就是最小化他俩的差别KL=Div
- 如何产生通用的?(通过神经网络
- $D^*=-2log2+2JSD(P_{data}||P_G) $
- 极大似然估计
-
判别器
- 希望判别器通过区分,以Pdata和以PG采样得到的数据
- 目标函数:真实的+虚假的
-
- 假设D(x)能够是任何函数–
- 所以D要足够强–深度神经网络
- 最大化
- 求导:
- (在(0,1)之间
- 求导:
- 带入$G^* $
- 训练:
最终版本
- 训练:SGD,同时训练两组数据——深度神经网络
- 真实的
- 生成的
- 优化
- 可以一组训练跑一次时,另一组跑k次
- 可以一组训练跑一次时,另一组跑k次
问题
- 在开始的时候,训练较慢
非饱和博弈
- 更换后,极值点不变
- 原来D=1/2时,就无法训练了,而这个里面,D=1/2时仍然可以对生成器进行训练
DCGAN
- 反卷积生成图像
不同类型的GAN
- 传统GAN–
- 没有任何条件的,
- 给定一个图片,生成类似的图片
- 有条件的GAN
- 给定图片+图片里的信息(条件)
- 传统的神经网络,容易输出一个图片的平均(不对)–用GAN
- 无监督有条件的GAN
- 给定两个领域的图片
- 由一个领域的图片可以生成另外一个领域的图片
- 真实图片–》漫画风?
conditional GAN
- 生成器
- 不仅要生成火车,还要满足条件
- 判别器
- 判别是不是真实图片
- 判别是不是满足条件
- 对于真实的图片,不满足条件也输出0
无监督条件GAN–cycle GAN
- 直接使用会趋向于直接拿过来一个梵高的画
- 需要用一个网络,使得
- 也可以用生成器的逆过程反过来生成X’,
对抗学习
- 区别
- 一般机器学习只有一个机制点
- 对抗学习基于博弈论
- 有两个player
- 一个取极大一个取极小—求个鞍点
- 用于
- 白天–>黑天
- 没有真实对应的信息,只能通过对抗GAN网络生成—视频
- 加噪音–让图片不可识别–安全(攻击分类器)
- 通过将对抗的x’加入分类其中,提高分类器的能力(稳定性)
- 白天–>黑天
- 损失函数
- 分类器
- 对抗的就是–优化x’
- 约束:看着原图没啥变化
- 得到一个x’
来源:CSDN
作者:叶落叶子
链接:https://blog.csdn.net/weixin_40485502/article/details/103866744