吴恩达《Machine Learning》-Neural Networks Representation神经网络介绍(八)

匿名 (未验证) 提交于 2019-12-02 23:43:01

对于特征很多的情况,采用 polynomial regression 多项式回归会产生指数型的时间复杂度。O(n^3)(次方数=多项式多少阶)

图像特征处理:

按像素点处理

练习题:


选择(C)像素点共有100100=110^4 quadratic terms 平方项为n2/2时间复杂度为o(n2) 故 (104)2/2=5*10^7

神经网络原理:

将听觉的脑皮层,连接到视觉信号,听觉脑皮层 可以变成处理视觉的,看到图像。表明人的大脑神经原都是同一套,经过训练可以完成不同任务。故神经网络只需编写一套代码,来模拟神经。

神经网络介绍:

x0叫做bias unit偏置单元,且x0=1,根据模型情况添加。
逻辑回归中的sigmod叫激活函数。
其中θ叫做参数,也叫作权重

Layer1 叫做输入层,里面是[x0…xn]各个特征(x0不一定有)
Layer2:叫做隐含层,负责计算
Layer3:叫做输出层,输出结果给激活函数

θ(j)多少维度:

后一层的数量*(前一层的数量+1)
θ(1)=R3*4

解释:

j+1中的+1来自bias nodes 偏置单元,

,也就是说输出节点将不包括偏置单元,而输入将包括偏置单元。

练习题:



选择(D)sj+1=4 ,sj=2
故矩阵为4,2+1=[4,3]维矩阵

Forward propagation正向传播:

从输入层到隐含层,最后到输出层
z1(2)=

z(2)=Θ(1)*x=Θ(1)*a(1)
a(2)=g(z(2))
增加a0(2)=1 此时a(2)矩阵变为4维 R^4

神经网络隐含层到输出层相当于从自己生成的特征中学习

neural network architecture神经网络结构

展示神经网络中各个神经元之间如何连接的

测试题:


选择(C),由于中间的Θ为第一个,故为Θ1。

公式总结:

不增加bias unit偏置单元时的公式:

增加bias unit偏置单元时的公式:

XOR异或,不相同的时候为1,相同为0
XNOR同或,相同为1,不相同为0

模拟AND且运算:

练习题:




选择(C)

x1 x2 结果
0 0 g(-10)≈0
0 1 g(10)≈1
1 0 g(10)≈1
1 1 g(30)≈1

模拟OR或运算:

练习题:




选择(A),否定哪一项 其系数应该为负数。NOTx1,故x1,x2项系数为负。然后A,C中代入尝试。

模拟XNOR或运算:

多分类问题:

原来的数据集y=1或者2或者3或者4,也就是输出一个数字。
现在神经网络输出一个向量。
标定数据集y(i)变成其中一种类别的向量。
如y(1)=[1,0,0,0]表示行人
y(2)=[0,1,0,0]表示汽车

测试题:


选择(A,C)
B.XOR需要隐含层才能表示
C.每一层的激活值都要进入sigmod

D.不对,因为每个a都是由前面的节点计算而来,同层之间的节点互不影响,只有加上softmax才有影响。
且对于多分类神经网络其输出为向量。如[0,0,1]

选择(A)

x1 x2 结果
0 0 g(-20)≈0
0 1 g(10)≈1
1 0 g(10)≈1
1 1 g(40)≈1


选择(A)

  • a(3)1 是第3层的第1个激活单元=第2层的Θ 乘以 第2层的a *
  • 第2层的Θ就是Θ2 *
  • 第2层的a就是a2 *



选择(A)
a(1)=input层x向量
a(2)=hidden layer隐含层
a(3)=hΘ(x)


选择(A),相当于神经元都一样,换个参数,总体不变。当交换Θ(1)中的两行时,实际上就是交换了a(2)2 与 a(2)3, 最后算式不变。

文章来源: https://blog.csdn.net/u014776265/article/details/92674264
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!