感知机原理

ε祈祈猫儿з 提交于 2019-12-02 06:47:27

感知机可以说是最古老的分类方法之一,早在1957年就已经提出。从今天来看它的分类模型在大多数时候泛化能力不强,但是它的原理却值得好好研究。因为研究透了感知机模型,学习支持向量机的话会降低不少难度。同时如果研究透了感知机模型,再学习神经网络,深度学习,也是一个很好的起点。

1.感知机模型

感知机的思想很简单,比如我们在一个平台上有很多的男孩女孩,感知机的模型就是尝试找到一条直线,能够把所有的男孩和女孩隔离开。放到三维空间或者更高维的空间,感知机的模型就是尝试找到一个超平面,能够把所有的二元类别隔离开,如下图这样。
在这里插入图片描述
当然你可能会想,如果我们找不到这么一条直线的话怎么办?找不到的话那就意味着类别线性不可分,也就意味着感知机模型不适合你的数据的分类。使用感知机一个最大的前提,就是数据是线性可分的。这严重限制了感知机的使用场景。它的分类竞争对手在面对不可分的情况时,比如支持向量机可以让数据在高维可分,神经网络可以通过激活函数和增加隐藏层来让数据可分。支持向量机的分类方法如下图所示在这里插入图片描述
用数学的语言来说,如果我们有m个样本,每个样本对应于n维特征和一个二元类别输出,如下:
(x1(0),x2(0)...xn(0),y0),(x1(1),x2(1)...xn(1),y1)...(x1(m),x2(m)...xn(m),ym) (x_1^{(0)},x_2^{(0)}...x_n^{(0)},y_0),(x_1^{(1)},x_2^{(1)}...x_n^{(1)},y_1)...(x_1^{(m)},x_2^{(m)}...x_n^{(m)},y_m)
我们的目标是找到这样一个超平面,即:
θ0+θ1x1+θ2x2...+θnxn=0\theta_0 + \theta_1x_1 + \theta_2x_2 ... + \theta_nx_n = 0
让其中一种类别的样本都满足θ0+θ1x1+θ2x2...+θnxn>0\theta_0 + \theta_1x_1 + \theta_2x_2 ... + \theta_nx_n > 0,让另一种类别的样本都满足θ0+θ1x1+θ2x2...+θnxn<0\theta_0 + \theta_1x_1 + \theta_2x_2 ... + \theta_nx_n < 0从而得到线性可分。如果数据线性可分,这样的超平面一般都不是唯一的,也就是说感知机模型可以有多个解。为了简化这个超平面的写法,我们增加一个特征x0=1x_0 = 1,这样超平面为i=0nθixi=0\displaystyle \sum^{n}_{i = 0}{\theta_ix_i} = 0。进一步用向量来表示为: θx=0\theta \cdot x= 0,其中θ\theta(n+1)×1(n+1)\times1的向量,xx(n+1)×1(n+1)\times1的向量,\cdot为内积,后面我们都用向量来表示超平面。而感知机的模型可以定义为:y=sign(θx)y = sign(\theta \cdot x)其中:

sign(x)={1x>01x<0sign(x)= \begin{cases} -1& \text{x>0}\\ 1& \text{x<0} \end{cases}

2. 感知机模型损失函数

为了后面便于定义损失函数,我们将满足 θx>0\theta \cdot x > 0的样本类别输出值取为1,满足θx<0\theta \cdot x < 0的样本类别输出值取为-1,这样取y的值就是为了方便定义损失函数。因为正确分类的样本满足yθx>0y*\theta \cdot x>0,而错误分类的样本满足yθx<0y*\theta \cdot x<0。我们损失函数的优化目标,就是期望使误分类的所有样本,到超平面的距离之和最小。
由于yθx<0y*\theta \cdot x<0,所以对于每一个误分类的样本i ,到超平面的距离是y(i)θx(i)θ2-\frac{y^{(i)}*\theta \cdot x^{(i)}}{||\theta||_2}
其中θ2||\theta||_2为L2范数。
我们假设所有误分类的点的集合为M,则所有误分类的样本到超平面的距离之和为:xiMy(i)θx(i)θ2\sum_{x_i\in M}{-\frac{y^{(i)}*\theta \cdot x^{(i)}}{||\theta||_2}}这样我们就得到了初步的感知机模型的损失函数。
我们研究可以发现,分子和分母都含有θ\theta,当分子的θ\theta扩大N倍时,分母的L2范数也会扩大N倍。也就是说,分子和分母有固定的倍数关系。那么我们可以固定分子或者分母为1,然后求另一个即分子自己或者分母的倒数的最小化作为损失函数,这样可以简化我们的损失函数。在感知机模型中,我们采用的是保留分子,即最终感知机模型的损失函数简化为:
J(θ)=xiMy(i)θx(i)J(\theta) = -\sum_{x_i\in M}{y^{(i)}*\theta \cdot x^{(i)}}
题外话,如果大家了解过支持向量机,就发现支持向量机采用的是固定分子为1,然后求1θ2\frac{1}{||\theta||_2}的最大化。采用不同的损失函数主要与它的后面的优化算法有关系。

3. 感知机模型损失函数

已知损失函数:J(θ)=xiMy(i)θx(i)J(\theta) = -\sum_{x_i\in M}{y^{(i)}*\theta \cdot x^{(i)}} ,其中M是所有误分类的点的集合。这个损失函数可以用梯度下降法或者拟牛顿法来解决,常用的是梯度下降法。但是用普通的基于所有样本的梯度和的均值的批量梯度下降法(BGD)是行不通的,原因在于我们的损失函数里面有限定,只有误分类的M集合里面的样本才能参与损失函数的优化。所以我们不能用最普通的批量梯度下降,只能采用随机梯度下降(SGD)或者小批量梯度下降(MBGD)。感知机模型选择的是采用随机梯度下降,这意味着我们每次仅仅需要使用一个误分类的点来更新梯度。损失函数基于θ\theta向量的的偏导数为:
J(θ)θ=xiMy(i)x(i)\frac{\partial J(\theta)}{\partial \theta}= -\sum_{x_i\in M}{y^{(i)}x^{(i)}}
θ\theta的梯度下降迭代公式应该为:
θ=θ+αxiMy(i)x(i)\theta= \theta + \alpha \sum_{x_i\in M}{y^{(i)}x^{(i)}}
由于我们采用随机梯度下降,所以每次仅仅采用一个误分类的样本来计算梯度,假设采用第i个样本来更新梯度,则简化后的θ\theta向量的梯度下降迭代公式为:θ=θ+αy(i)x(i)\theta= \theta + \alpha y^{(i)}x^{(i)}
其中α\alpha为步长,y(i)y^{(i)}为样本输出1或者-1,x(i)x^{(i)}为(n+1)x1的向量。

4.感知机模型的算法

这里我们就对感知机模型基于随机梯度下降来求α\alpha向量的算法做一个总结。算法的输入为m个样本,每个样本对应于n维特征和一个二元类别输出1或者-1,如下:(x1(0),x2(0)...xn(0),y0),(x1(1),x2(1)...xn(1),y1)...(x1(m),x2(m)...xn(m),ym) (x_1^{(0)},x_2^{(0)}...x_n^{(0)},y_0),(x_1^{(1)},x_2^{(1)}...x_n^{(1)},y_1)...(x_1^{(m)},x_2^{(m)}...x_n^{(m)},y_m)
输出为分离超平面的模型系数θ\theta向量。
算法的执行步骤如下:

  1. 定义所有x0x_0为1。选择θ\theta向量的初值和步长α\alpha的初值。可以将θ\theta向量置为0向量,步长设置为1。要注意的是,由于感知机的解不唯一,使用的这两个初值会影响θ向量的最终迭代结果。
  2. 在训练集里面选择一个误分类的点(x(i)1,x(i)2,...x(i)n,yi)(x_{(i)}^1,x_{(i)}^2,...x_{(i)}^n,y_i), 用向量表示即(x(i),y(i))(x_{(i)},y_{(i)}),这个点应该满足:y(i)θx(i)0y_{(i)}\theta \cdot x_{(i)} \leq 0
  3. θ\theta向量进行一次随机梯度下降的迭代:θ=θ+αy(i)x(i)\theta= \theta + \alpha y^{(i)}x^{(i)}
  4. 检查训练集里是否还有误分类的点,如果没有,算法结束,此时的θ向量即为最终结果。如果有,继续第2步。

5.感知机模型的算法对偶形式

上面的感知机模型的算法形式我们一般称为感知机模型的算法原始形式。对偶形式是对算法执行速度的优化。优化方法如下所示:
通过上面感知机模型的算法原始形式θ=θ+αy(i)x(i)\theta= \theta + \alpha y^{(i)}x^{(i)}可以看出,我们每次梯度的迭代都是选择的一个样本来更新θ\theta向量。最终经过若干次的迭代得到最终的结果。对于从来都没有误分类过的样本来说,被选择参与θ\theta迭代的次数是0,对于被多次误分类而更新的样本j,它参与θ\theta迭代的次数设置为mjm_j,如果令θ\theta向量初始值为00向量, 这样我们的θ\theta向量的表达式可以写为:
θ=αj=1mmjy(i)x(i)\theta=\alpha \sum_{j =1}^{m}{ m_jy^{(i)}x^{(i)}}其中mjm_j为样本(x(j),y(j))(x_{(j)},y_{(j)})在随机梯度下降到当前的这一步之前因误分类而更新的次数。每一个样本(x(j),y(j))(x_{(j)},y_{(j)})的初始值为0,每当此样本在某一次梯度下降迭代中因误分类而更新时,mjm_j的值加1。由于步长α\alpha为常量,可以令βj=αmj\beta_j=\alpha m_j,这样θ向量的表达式为:θ=j=1mβjy(j)x(j)\theta= \sum_{j =1}^{m}{\beta_j y^{(j)}x^{(j)}}在每一步判断误分类条件的地方,可以用y(i)θx(i)<0y^{(i)}\theta \cdot x^{(i)}<0的变种y(i)(j=1mβjy(j)x(j))x(i)<0y^{(i)}(\sum_{j =1}^{m}{\beta_j y^{(j)}x^{(j)}} )\cdot x^{(i)}<0来判断误分类。注意到这个判断误分类的形式里面是计算两个样本x(j)x^{(j)}x(i)x_{(i)}的内积,而且这个内积计算的结果在下面的迭代次数中可以重用。如果我们事先用矩阵运算计算出所有的样本之间的内积,那么在算法运行时, 仅仅一次的矩阵内积运算比多次的循环计算省时。 计算量最大的判断误分类这儿就省下了很多的时间,这也是对偶形式的感知机模型比原始形式优的原因。
样本的内积矩阵称为Gram矩阵,它是一个对称矩阵,记为 G=[x(i)x(j)]G = [x^{(i)}\cdot x^{(j)}]这里给出感知机模型的算法对偶形式的内容。算法的输入为m个样本,每个样本对应于n维特征和一个二元类别输出1或者-1,如下:(x1(0),x2(0)...xn(0),y0),(x1(1),x2(1)...xn(1),y1)...(x1(m),x2(m)...xn(m),ym) (x_1^{(0)},x_2^{(0)}...x_n^{(0)},y_0),(x_1^{(1)},x_2^{(1)}...x_n^{(1)},y_1)...(x_1^{(m)},x_2^{(m)}...x_n^{(m)},y_m)算法的执行步骤如下:

  1. 定义所有x0x_0为1,步长α\alpha初值为1,设置β\beta的初值0。要注意的是,由于感知机的解不唯一,使用的步长初值会影响θ\theta向量的最终迭代结果。
  2. 计算所有样本内积形成的Gram矩阵G。
  3. 在训练集里面选择一个误分类的点(x(i),y(i))(x^{(i)},y^{(i)}),这个点应该满足: y(i)(j=1mβjy(j)x(j))x(i)<0y^{(i)}(\sum_{j =1}^{m}{\beta_j y^{(j)}x^{(j)}} )\cdot x^{(i)}<0, 在检查是否满足时可以通过查询Gram矩阵的gijg_{ij} 的值来快速计算是否小于0。
  4. β\beta向量的第i个分量进行一次更新:βi=βi+α
  5. 检查训练集里是否还有误分类的点,如果没有,算法结束,此时的θ\theta向量最终结果为下式。如果有,继续第2步。θ=j=1mβjy(j)x(j)\theta= \sum_{j =1}^{m}{\beta_j y^{(j)}x^{(j)}}其中βj\beta_jβ\beta向量的第j个分量。
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!