分类是在一群已经知道类别标号的样本中,训练一种分类器,让其能够对某种未知的样本进行分类,分类算法属于一种有监督的学习。分类算法的分类过程就是建立一种分类模型来描述预定的数据集或概念集,通过分析由属性描述的数据库元组来构造模型。分类的目的就是使用分类对新的数据集进行划分,其主要涉及分类规则的准确性、过拟合、矛盾划分的取舍等。
————————————————
聚类是一种将数据点按一定规则分群(分组)的机器学习技术。其主要研究数据间逻辑上或物理上的相互关系。聚类分析本身不是一个特定的算法,而是要解决的一般任务。它可以通过各种算法来实现,这些算法在理解群集的构成以及如何有效地找到它们方面存在显着差异。由聚类所组成的簇是一组数据对象的集合,这些对象与同一簇中的对象彼此类似,与其他簇中的对象相异。其分析结果不仅可以揭示数据间的内在联系与区别,还可以为进一步的数据分析与知识发现提供重要依据。
监督学习:当我们根据一组给定的预测因子变量或自变量去预测一个目标变量时,这些问题被称为监督学习问题。
无监督学习:没有任何固定目标变量的这些问题被称为无监督学习问题。在这些问题中,我们只有自变量而没有目标/因变量。
K-Means 聚类算法原理详解:
简单来说K-Means 聚类算法接受一个未标记的数据集,然后将数据聚类成不同的组,同时,k-means算法也是一种无监督学习。
簇的两个属性:聚类的主要目的不仅仅是创建簇,而是创建好的和有意义的簇。
1)组中的所有数据点应该彼此相似;
2)来自不同组的数据点应尽可能不同;
簇第一个属性:Inertia评估。Inertia实际上计算簇内所有点到该簇的质心的距离的总和。我们为所有簇计算这个总和,最终Inertia值是所有这些距离的总和。簇内的这个距离称为簇内距离(intracluster distance.)。因此,Inertia为我们提供了簇内距离的总和:
现在,你认为一个好的簇的Inertia值应该是什么?小的Inertia好还是大的Inertia好?我们希望同一簇中的点彼此相似,因此它们之间的距离应尽可能小。记住这一点,Inertia越小,聚类越好。
簇第二个属性:Dunn Index,我们现在知道Inertia试图最小化簇内距离,它正试图划分更紧凑的簇。换句话说如果一个簇的质心与该簇中的点之间的距离很小,则意味着这些点彼此更接近。因此,Inertia可确保满足簇的第一个属性。但它并不关心第二个属性,不同的簇应尽可能彼此不同,这就是Dunn Index可以用来评估的地方。
除了质心和点之间的距离,Dunn Index还考虑了两个簇之间的距离,两个不同簇的质心之间的距离称为簇间距离(inter-cluster distance)。Dunn Index指数的公式:
Dunn Index是簇间距离的最小值与簇内距离的最大值之比。我们希望最大化Dunn Index,Dunn Index的值越大,簇就越好。为了最大化Dunn Index的值,分子应该是最大的。在这里,我们采用最小的簇间距离。因此,即使是最近的簇之间的距离也应该更大,这最终将确保簇彼此远离。此外,分母应该是最小的,以最大化Dunn Index。在这里,我们采取最大的簇内距离。同样,这里的直觉也是一样的。簇质心和点之间的最大距离总和应该最小,这最终将确保划分的簇紧凑。
什么是K-means聚类:
回想一下簇的第一个属性,它表明簇中的点应该彼此相似。因此,我们的目标是最小化簇内点之间的距离。有一种算法试图通过它们的质心最小化簇中点的距离,那就是K-means聚类技术。K-means是一种基于质心的算法,或基于距离的算法,我们计算将点分配给一个簇的距离。在K-means中,每个聚类都与一个质心相关联。K-means算法的主要目的是最小化点与它们各自的簇质心之间的距离之和。
“求点群中心的算法”:欧氏距离(Euclidean Distance):(差的平方和的平方根)
举个例子来了解K-means实际上是如何工作的:
我们有这8个点,我们想要应用K-means来为这些点划分簇。下面将演示我们是怎样做到的。
第一步:选择簇的数目k
K-means的第一步是选择簇的数目k。
第二步:从数据中选择k个随机点作为质心
接下来,我们为每个簇随机选择质心。假设我们想要有2个簇,所以k在这里等于2。然后我们随机选择质心:这里,红色和绿色圆圈代表这些簇的质心。
第三步:将所有点分配给到某个质心距离最近的簇
一旦我们初始化了质心,我们就将每个点分配给到某个质心距离最近的簇:在这里,你可以看到更接近红点的点被分配给红色簇,而更接近绿点的点被分配给绿色簇。
第四步:重新计算新形成的簇的质心
现在,一旦我们将所有点分配到任一簇中,下一步就是计算新形成的簇的质心:在这里,红色和绿色叉号是新的质心。
第五步:重复第三步和第四步
然后我们重复第三步和第四步:计算质心并基于它们与质心的距离将所有点分配给簇的步骤是单次迭代。但我们什么时候应该停止这个过程?它不能永远运行下去对吧?
停止K-means聚类的标准,基本上有三种停止标准可用于停止K-means算法:新形成的簇的质心不会改变数据点保留在同一个簇中达到最大迭代次数如果新形成的簇的质心没有变化,我们就可以停止算法。即使在多次迭代之后,所有簇都还是相同的质心,我们可以说该算法没有学习任何新模式,并且它是停止训练的标志。另一个明显的迹象表明,在多次迭代训练的之后,如果数据点仍然都在同一簇中,我们应该停止训练过程。最后,如果达到最大迭代次数,我们可以停止训练。假设我们将迭代次数设置为100。在停止之前,该过程将重复100次迭代。
算法实现步骤(总结):
1. 确定要聚类的数量,并随机初始化它们各自的中心点(质心);
2. 计算每个点分别到k个聚类中心的聚类,然后将该点分到最近的聚类中心,这样就行成了k个簇;
3. 再重新计算每个簇的质心(均值,即向量各维取平均);
4. 重复以上2~3步,直到质心的位置不再发生变化或者达到设定的迭代次数。
K-means聚类算法面临的挑战
1)使用K-means时我们面临的普遍挑战之一是簇的大小不同。假设我们有以下几点:
与中心簇相比,左侧和最右侧的簇的点的数量比较少。现在,如果我们在这些点上应用K-means聚类,结果将是这样的:
2)K-means的另一个挑战是当原始点的密度不同时。比如下面这些原始点:
这里,红色簇中的点比较松散,而其余簇中的点紧密地堆积在一起。现在,如果我们在这些点上应用K-means,我们将得到这样的簇:
我们可以看到紧凑的点已分配给同一个簇。而实际松散分布但在同一簇中的点却分配给不同的簇。效果并不理想,我们能做些什么呢?
解决方案一:是使用更多的簇进行划分。因此,在所有上述场景中,我们可以拥有更多的簇,而不是使用3个簇。也许设置k = 10可能会产生更有意义的簇。
解决方案二:K-means ++为K-means聚类选择初始簇质心。还记得我们如何在K-means聚类中随机初始化质心吗?这也可能有问题,因为我们每次都可能得到不同的簇。因此,为了解决随机初始化的这个问题,有一种称为K-means ++的算法可用于为K-means选择初始值或初始簇质心。
K-means++算法介绍:
在某些情况下,如果簇的初始化不合适,K-means可能导致产生坏的簇。这就是K-means ++产生作用的地方。它指定了在使用标准K-means聚类算法向前推进之前初始化簇质心的过程。使用K-means ++算法,我们优化了随机选择簇质心的步骤。在使用K-means ++初始化时,即(init='K-means++'),我们更有可能找到与最佳K-means解决方案竞争的解决方案。
使用K-means ++初始化质心的步骤是:
1)从我们想要聚类的数据点随机均匀地选择第一个簇;这类似于我们在K-means中所做的,但不是随机挑选所有质心,而是在这里选择一个质心;
2)接下来,我们计算每个数据点到已经选择的簇的质心的距离(D(x));
3)然后,从数据点中选择新的簇质心;
4)重复步骤2和3,直到选择了k个簇。
举个例子来更清楚地理解这一点。假设我们有以下几点,我们想在这里划分3个簇:
现在,第一步是随机选择一个数据点作为簇质心:
假设我们选择绿点作为初始质心。现在,我们将使用此质心计算每个数据点与质心的距离(D(x)):
下一个质心将是其平方距离(D(x)2)离当前质心最远的那个点:
在这种情况下,红点将被选为下一个质心。现在,为了选择最后一个质心,我们将计算所有点到其最近的质心的距离,其中具有最大平方距离的点作为下一个质心:
我们将选择最后一个质心为:
初始化质心后,我们可以继续使用K-means算法。使用K-means ++初始化质心往往会改善聚类结果。虽然相对于随机初始化而言计算成本很高,但随后的K-means通常会更快地收敛。
如何在K-means聚类中选择正确的簇的个数?
每个人在使用K-means时最常见的疑问之一就是如何选择合适数量的簇。那么,让我们看看一种技术,它将帮助我们为K-means算法选择正确的簇的个数。老实说,我们可以拥有任意数量的簇。你能猜出可能的最大簇数是多少吗?我们想到将每个点分配给一个单独的簇。因此,在这种情况下,簇的数量将等于点数或观察数量。所以,最大可能的簇数将等于数据集中的观察数。
但我们如何才能确定最佳簇数?我们可以做的一件事是绘制图形,其中x轴表示簇的数量,y轴将是评估度量。我们暂时说是Inertia(样本到其最近的聚类中心的平方距离的总和)。也可以选择任何其他评估指标,如Dunn Index;代价函数/畸变函数(Distortion function:要使k-means最后的分类结果最好,也就是要是K-均值最小化,是要最小化所有的数据点与其所关联的聚类中心点之间的距离之和);...... 。
接下来,我们将从一个小的簇值开始,比如说2使用2个簇训练模型,计算该模型的Inertia,最后将其绘制在上图中。假设我们得到Inertia大约为1000:
现在,我们将增加簇的数量,再次训练模型,并绘制Inertia。这是我们得到的图:
当我们将簇值从2更改为4时,Inertia急剧下降。随着我们进一步增加簇的数量,Inertia的下降变得缓慢并最终变得稳定。Inertia的减小幅度变为常数时对应的簇的个数可以选择作为我们数据的正确簇的个数。
在这里,我们可以选择6到10之间的任意数量的簇的个数。我们可以有7个,8个甚至9个簇。你还必须在确定簇的个数时查看计算成本。如果我们增加簇的数量,计算成本也会增加。因此,如果你没有高计算资源,我的建议是选择较少数量的簇。K值的选择主要还是根据经验以及利用k-means聚类的目的来决定。
k-means 算法的优点:
1)法简单快捷,容易理解,速度快,真正在做的是计算点和组中心之间的距离:非常少的计算!因此它具有线性复杂度 O(n);
2)对所有的数据样本都进行聚类;
3)对满足高斯分布、均匀分布的数据类型聚类效果表较好。
k-means算法的缺点:
1)需要事先确定聚类个数;
2)对初始聚类中心敏感,而K-means 也是从随机选择的聚类中心开始,所以可能在不同的算法中产生不同的聚类结果(结果可能不可重复并缺乏一致性,其他聚类方法更加一致);
3)对孤立点和噪声点相对敏感。
参考文章:
1. https://baijiahao.baidu.com/s?id=1643772188521178944&wfr=spider&for=pc
2. https://baijiahao.baidu.com/s?id=1625408992304959354&wfr=spider&for=pc
3. https://blog.csdn.net/songguangfan/article/details/90770289
4. https://www.sohu.com/a/286841039_654419
来源:https://www.cnblogs.com/bonheur/p/12469906.html