深度学习(十八)——交叉熵

馋奶兔 提交于 2020-03-05 20:31:39

交叉熵(Cross Entropy Loss)也是一种loss
在这里插入图片描述
香农定理:
用概率决定信息量,公式的意义:比如:买彩票,中100万奖概率小,一旦你中奖了,这个信息量就很大了;但你花10块钱买了一袋零食,本来概率就是100%,这个信息量就很小,由概率决定信息量,两者呈反比
在这里插入图片描述
所以,如果4分类,每个分类出来的概率都是25%,不确定性很高,即求出的E(熵)就很大,可以用作loss。
在这里插入图片描述
KL代表散度
在这里插入图片描述
在这里插入图片描述

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!