神经网络分类简介

主宰稳场 提交于 2020-03-27 09:56:57

3 月,跳不动了?>>>

1 深度学习概念        

        2006年,Geoffery Hinton在《Science》和相关期刊上发表了论文,首次提出了“深度信念网络”的概念。具体是利用预训练的方式缓解了局部最优解的问题,将隐藏层增加到了7层,实现了真正意义上的“深度”。 他给多层神经网络相关的学习方法赋予了一个新名词--“深度学习”。很快,深度学习在语音识别领域暂露头角。接着,2012年,深度学习技术又在图像识别领域大展拳脚。在这之后,关于深度神经网络的研究与应用不断涌现。

2 神经网络分类

        神经网络的分类主要有以下几种:DNN(深度神经网络)、RNN (循环神经网络)、CNN(卷积神经网络)、ResNet(深度残差)、LSTM之外,还有很多其他结构的神经网络 。

        DNN:

        为了克服梯度消失,ReLU、maxout等传输函数代替了sigmoid,形成了如今DNN的基本形式。结构跟多层感知机一样,如下图所示.  我们看到全连接DNN的结构里下层神经元和所有上层神经元都能够形成连接,从而导致参数数量膨胀。假设输入的是一幅像素为1K*1K的图像,隐含层有1M个节点,光这一层就有10^12个权重需要训练,这不仅容易过拟合,而且极容易陷入局部最优。

        RNN:

        DNN无法对时间序列上的变化进行建模。然而,样本出现的时间顺序对于自然语言处理、语音识别、手写体识别等应用非常重要。为了适应这种需求,就出现了循环神经网络RNN。在RNN中,神经元的输出可以在下一个时间段直接作用到自身,即第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出!表示成图就是这样的:

        CNN:

        由于图像中存在固有的局部模式(如人脸中的眼睛、鼻子、嘴巴等),所以将图像处理和神将网络结合引出卷积神经网络CNN。CNN是通过卷积核将上下层进行链接,同一个卷积核在所有图像中是共享的,图像通过卷积操作后仍然保留原先的位置关系。

        以上即是神经网络的主要分类,当然还有其他类型,这里不再介绍。

        预告:下篇将讲解CNN结构,主要介绍卷积层,池化层以及全连接层的概念示例。

原创不易,转载请附地址: https://my.oschina.net/ffintell/blog/3212243

                                                                                                                             (示例图片来源网络,如有侵权,联系删除)

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!