聚类算法(二)

北城以北 提交于 2020-01-19 20:31:45

7.算法优化

  • k-means算法小结

    优点:

    • 1.原理简单(靠近中心点),实现容易
    • 2.聚类效果中上(依赖k的选择)
    • 3.空间复杂度o(N), 时间复杂度o(IKN)

    缺点:

    • 1.对离群点,噪声敏感
    • 2.很难发现大小差别很大的簇及进行增量计算
    • 3.结果不一定是全局最优,只能保证局部最优(这个与K的个数和初值的选取有关)
  • Canopy算法小结

    优点:

    • 1.K-means对噪声抗干扰弱,通过Canopy对比,将较小的NumPoing的Cluster直接去掉有利于抗干扰。
    • 2.Canopy选择出来的k更精准
    • 3.只是针对每个Canopy的内做K-means聚类,减少相似计算的数量

    缺点:

    • 算法中T1、T2的确定问题,依然可能落入局部最优解
  • K-means++

    kmeans++目的,让选择的质心尽可能的分散

  • 二分k-means
    • 1.所有点作为一个簇
    • 2.将该簇1分为2
    • 3.选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇
    • 4.重复进行,知道簇的数目等于用给定的数目k为止

    隐含的一个原则:

    因为聚类的误差平方和能够衡量聚类性能,则该值越小表示数据点越接近质心,聚类效果越好。所以需要对误差平方和最大的簇再进行一次划分,因为误差平方和越大, 表示该簇聚类效果越不好,越有可能是多个簇被当成了一个簇,所以我们首先需要对这个簇进行划分。

    二分K均值算法可以加速k-means算法的执行速度,因为它的相似度计算少了并且不受初始化问题的影响,因为这里不存在随机点的选取,切每一步都保证了误差最小。

  • k-medoids(K-中心聚类算法)

    k-medoids-和K-means是有区别的,不一样的地方在于中心点的选取

    • k-means中,将中心点取为当前cluster中的所有数据点的平均值,对异常点很敏感
    • k-medoids中,将从当前cluster中选取到其他所有点的距离之和最小的点作为中心点

    算法流程:

    1)总体n个样本中任意选取k个点作为medoids

    2)按照与medoids最近的原则,将剩余的n-k个点分配到当前最佳的medoids代表的类中

    3)对于第i个类中除对应medoids中外的所有其他点,按顺序计算当其为新的medoids时,代价函数的值,遍历所有可能,选取代价函数最小时对应的点作为新的medoids

    4)重复2-3步骤,知道所有的medoids点不再发生变化或者已达到设定的最大迭代次数

    • k-medoids对噪声鲁棒性好。但只能对小样本起作用,样本大速度就太慢了。所以用k-means比k-medoids更实用。
  • Kernel k-means

    kernel k-means实际上,就是将每个样本进行一个投射到高维空间的处理,然后再将处理后的数据使用普通的k-means算法思想进行聚类。

  • ISODATA

    类别数目随着聚类过程而变化;

    对类别数会进行合并,分裂,

    “合并”:(当聚类结果某一类中样本数太少,或两个类间的距离太近时)

    “分裂”:(当聚类结果中某一类的类内方差太大,将该类进行分裂)

  • Mini Batch K-Means

    适合大数据的聚类算法

    大数据量是什么量级?通常当样本量大于1万做聚类时,就需要考虑选用Mini Batch K-Means算法。

    Mini Batch KMeans使用了Mini Batch(分批处理)的方法对数据点之间的距离进行计算。

    Mini Batch计算过程中不必使用所有的数据样本,而是从不同类别的样本中抽取一部分样本来代表各自类型进行计算。由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。

    该算法的迭代步骤有两步:

    (1)从数据集中随机抽取一些数据形成小批量,把他们分配给最近的质心

    (2)更新质心

    与Kmeans相比,数据的更新在每一个小的样本集上。对于每一个小批量,通过计算平均值得到更新质心,并把小批量里的数据分配给该质心,随着迭代次数的增加,这些质心的变化是逐渐减小的,直到质心稳定或者达到指定的迭代次数,停止计算。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!