基本原理
KNN算法又叫最近邻居法,是一种非常简单易于掌握的分类算法。
其基本原理是,存在一个已知标签的数据集合,也就是训练样本集。
这个样本集中的每一个数据所属的分类都是已知的。
当一个没有标签的新数据需要确定自己属于哪个分类的时候,
只需要把新数据的每个特征和训练集中的每个数据的特征进行比较,
找出其中和新数据最相似(最近邻)的k个数据,
算法取这k个数据中出现次数最多的标签作为新数据的类别。
通常k不大于20。
代码实现
假如现在又四个已知点,
[
1.0
,
1.1
], [
1.0
,
1.0
], [
0
,
0
], [
0
,
0.1
],类别标签分别是A、A、B、B
如果给定一个新的点[0, 0],那么怎么判断它属于A还是B呢?
按照KNN算法原理,需要执行以下操作:
计算训练集中各点与当前点之间的距离(本文采用最经典的欧式距离)
- 计算训练集中各点与当前点之间的距离(本文采用最经典的欧式距离)
- 按照距离递增次序对各点排序
- 选取与当前点距离最小的k个点
- 确定前k个点所在类别的出现频率
- 返回前k个点出现频率最高的类别,即为分类结果。
以下代码实现了KNN算法的分类过程
# 创建训练数据集def creatDataSet(): group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) labels = ['A', 'A', 'B', 'B'] return group, labels # ========================================# inX:输入待分类向量# dataSet:输入的训练样本集# labels:标签向量# k:用于选择最近邻居的数目# 分类器得出类别标签然后返回# =========================================def classify0 (inX, dataSet, labels, k): # shape返回表示行列数的元组,shape[0]获得行数 dataSetSize = dataSet.shape[0] # 以inX为元素重复(dataSetSize, 1)次构成新的数组 diffMat = tile(inX, (dataSetSize, 1))-dataSet sqDiffMat = diffMat**2 # 矩阵行元素相加(如果axis = 0的话表示列相加) sqDistance = sqDiffMat.sum(axis = 1) distances = sqDistance**0.5 # argsort()得到排序后原来位置的下标 sortedDisIndicies = distances.argsort() classCount = {} for i in range(k): voteIlabel = labels[sortedDisIndicies[i]] classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 sortedClassCount = sorted(classCount.iteritems(), # 构造函数key,获取对象的第1个域的值 key = operator.itemgetter(1), # 升序排列 reverse = True) # 返回分类器得出类别标签 return sortedClassCount[0][0]
如果把上面问题中的待测试点[0, 0]和训练集生成函数的返回值group和labels作为参数输入分类器,选择k=3
即:
classify0 ([0, 0], group, labels, 3):
会得到其标签为B
这就完成了一个基于KNN分类算法的简单分类器。
当然,在现实中的应用场景的复杂程度比这个例子大多了
来源:https://www.cnblogs.com/mooba/p/5412553.html