【数据挖掘】基于划分的聚类方法 ( K-Means 算法简介 | K-Means 算法步骤 | K-Means 图示 )
文章目录
- 一、 基于划分的聚类方法
- 二、 K-Means 算法 简介
- 三、 K-Means 算法 步骤
- 四、 K-Means 方法的评分函数
- 五、 K-Means 算法 图示
一、 基于划分的聚类方法
1 . 基于划分的聚类方法 : 又叫 基于分区的聚类方法 , 或 基于距离的聚类方法 ;
① 概念 : 给定数据集有 nnn 个样本 , 在满足样本间距离的前提下 , 最少将其分成 kkk 个聚类 ;
② 参数 kkk 说明 : 表示聚类分组的个数 , 该值需要在聚类算法开始执行前 , 需要指定好 ,
2 . 典型的基于划分的聚类方法 : K-Means 方法 ( K 均值方法 ) , 聚类由分组样本中的平均均值点表示 ; K-medoids 方法 ( K 中心点方法 ) , 聚类由分组样本中的某个样本表示 ;
3 . 硬聚类 : K-Means 是最基础的聚类算法 , 是基于划分的聚类方法 , 属于硬聚类 ; 在这个基础之上 , GMM 高斯混合模型 , 是基于模型的聚类方法 , 属于软聚类 ;
二、 K-Means 算法 简介
K-Means 简介 :
① 给定条件 : 给定数据集 XXX , 该数据集有 nnn 个样本 ;
② 目的 : 将其分成 KKK 个聚类 ;
③ 聚类分组要求 : 每个聚类分组中 , 所有的数据样本 , 与该分组的中心点的距离之和最小 ; 将每个样本的与中心点距离计算出来 , 分组中的这些距离累加 , KKK 个分组的距离之和 也累加起来 , 总的距离最小 ;
三、 K-Means 算法 步骤
K-Means 算法 步骤 : 给定数据集 XXX , 该数据集有 nnn 个样本 , 将其分成 KKK 个聚类 ;
① 中心点初始化 : 为 KKK 个聚类分组选择初始的中心点 , 这些中心点称为 Means ; 可以依据经验 , 也可以随意选择 ;
② 计算距离 : 计算 nnn 个对象与 KKK 个中心点 的距离 ; ( 共计算 n×Kn \times Kn×K 次 )
③ 聚类分组 : 每个对象与 KKK 个中心点的值已计算出 , 将每个对象分配给距离其最近的中心点对应的聚类 ;
④ 计算中心点 : 根据聚类分组中的样本 , 计算每个聚类的中心点 ;
⑤ 迭代直至收敛 : 迭代执行 ② ③ ④ 步骤 , 直到 聚类算法收敛 , 即 中心点 和 分组 经过多少次迭代都不再改变 , 也就是本次计算的中心点与上一次的中心点一样 ;
四、 K-Means 方法的评分函数
1 . K-Means 方法的评分函数 : 该评分函数本质是 误差平方和 ;
∑m=1k∑tmi∈Km(Cm−tmi)2\sum_{m=1}^k \sum_{t_{mi}\in K_m} ( C_m - t_{mi} )^2m=1∑ktmi∈Km∑(Cm−tmi)2
2 . 公式元素说明 :
CmC_mCm 表示中心点 ;
tmit_{mi}tmi 表示每个数据对象 ;
Cm−tmiC_m - t_{mi}Cm−tmi 表示每个对象到中心的距离 ;
KmK_mKm 表示第 mmm 个聚类中的点的个数 ;
∑tmi∈Km\sum_{t_{mi}\in K_m}∑tmi∈Km 表示单个聚类中点的个数的累加和
kkk 表示聚类 ( 分组 ) 的个数
∑m=1k\sum_{m=1}^k∑m=1k 表示 kkk 个聚类的累加和
3 . 公式 拆解 解析 :
Cm−tmiC_m - t_{mi}Cm−tmi 计算每个元素距离其中心点的距离
(Cm−tmi)2( C_m - t_{mi} )^2(Cm−tmi)2 计算 每个元素距离其中心点的距离的平方 , 目的是为了消除符号干扰
∑tmi∈Km(Cm−tmi)2\sum_{t_{mi}\in K_m} ( C_m - t_{mi} )^2∑tmi∈Km(Cm−tmi)2 将一个聚类分组中的 [ ( 每个元素距离其中心点的距离 ) 的平方 ] 相加 ;
∑m=1k∑tmi∈Km(Cm−tmi)2\sum_{m=1}^k \sum_{t_{mi}\in K_m} ( C_m - t_{mi} )^2∑m=1k∑tmi∈Km(Cm−tmi)2 整体公式就是将所有的聚类分组的 { [ ( 每个元素距离其中心点的距离 ) 的平方 ] 累加和 } 再次累加
五、 K-Means 算法 图示
1 . 已知条件 : 下面的点是二维平面上的样本 , 有 555 个点 {X1,X2,X3,X4,X5}\{X_1 , X_2 , X_3 , X_4 , X_5 \}{X1,X2,X3,X4,X5} , 将其分成 222 个聚类 ;
2 . 首先设置初始中心点 : 中心点可以选择已有的样本作为中心点 ( 称为 : 实点 ) , 也可以在空白处设置中心点 ( 称为 : 虚点 ) ;
这里在空白处任意设置 222 个中心点 {K1,K2}\{K_1 , K_2\}{K1,K2} ;
3 . 计算距离 : 计算 555 个点到 222 个中心点的距离 , 每个点都要计算 222 次 , 共计算 101010 次 ;
距离表示说明 : 下面公式中的 d(K1,X1)d(K_1, X_1)d(K1,X1) 指的是 K1K_1K1 点到 X1X_1X1 点的距离 ;
d(K1,X1)=1816.6d(K_1, X_1) = 1816.6d(K1,X1)=1816.6
d(K2,X1)=14056.5d(K_2, X_1) = 14056.5d(K2,X1)=14056.5
X1X_1X1 点分到 K1K_1K1 对应的聚类分组中 ;
d(K1,X2)=3646.6d(K_1, X_2) = 3646.6d(K1,X2)=3646.6
d(K2,X2)=1405.3d(K_2, X_2) = 1405.3d(K2,X2)=1405.3
X2X_2X2 点分到 K2K_2K2 对应的聚类分组中 ;
d(K1,X3)=1818.2d(K_1, X_3) = 1818.2d(K1,X3)=1818.2
d(K2,X3)=5101.3d(K_2, X_3) = 5101.3d(K2,X3)=5101.3
X3X_3X3 点分到 K1K_1K1 对应的聚类分组中 ;
d(K1,X4)=12940.3d(K_1, X_4) = 12940.3d(K1,X4)=12940.3
d(K2,X4)=7859.2d(K_2, X_4) = 7859.2d(K2,X4)=7859.2
X4X_4X4 点分到 K2K_2K2 对应的聚类分组中 ;
d(K1,X5)=11775.1d(K_1, X_5) = 11775.1d(K1,X5)=11775.1
d(K2,X5)=6539.1d(K_2, X_5) = 6539.1d(K2,X5)=6539.1
X5X_5X5 点分到 K2K_2K2 对应的聚类分组中 ;
4 . 初步分组 : 为每个样本分组 , 将 样本点 XiX_iXi 分到最近的中心点对应的聚类分组中 , 下面是分组结果 :
X1,X3X_1 , X_3X1,X3 分组到 K1K_1K1 中心点对应的分组 , X2,X5,X4X_2 , X_5 , X_4X2,X5,X4 分到 K2K_2K2 对应的分组 ;
当前聚类分组 : {X1,X3}\{ X_1 , X_3 \}{X1,X3} , {X2,X5,X4}\{ X_2 , X_5 , X_4 \}{X2,X5,X4} ;
5 . 重新计算中心点位置 : 根据上述聚类分组 , 确定新的中心点位置 , 如下图 :
6 . 重新计算中心点位置 : 图中的 X2X_2X2 的聚类分组 , 出现了改变 , X2X_2X2 样本的距离 , 明显距离 K1K_1K1 点比较近 ;
距离表示说明 : 下面公式中的 d(K1,X1)d(K_1, X_1)d(K1,X1) 指的是 K1K_1K1 点到 X1X_1X1 点的距离 ;
d(K1,X2)=2696.3d(K_1, X_2) = 2696.3d(K1,X2)=2696.3
d(K2,X2)=4204.1d(K_2, X_2) = 4204.1d(K2,X2)=4204.1
X2X_2X2 点分到 K1K_1K1 对应的聚类分组中 ;
7 . 重新分组 : X2X_2X2 点分到 K1K_1K1 对应的聚类分组中 ;
当前聚类分组 : {X1,X2,X3}\{ X_1 , X_2 , X_3 \}{X1,X2,X3} , {X5,X4}\{ X_5 , X_4 \}{X5,X4} ;
8 . 继续计算中心点位置 : 此时该中心点就比较稳定了 , 下一次计算 , 仍然是这个中心点 , 因此 聚类收敛 , 此时的分组就是最终的聚类分组 ;
最终聚类分组 : {X1,X2,X3}\{ X_1 , X_2 , X_3 \}{X1,X2,X3} , {X5,X4}\{ X_5 , X_4 \}{X5,X4} ;
最终中心点如下图所示 , K1K_1K1 在三角形中心 , K2K_2K2 在两点中心点 ;
总结
以上是生活随笔为你收集整理的【数据挖掘】基于划分的聚类方法 ( K-Means 算法简介 | K-Means 算法步骤 | K-Means 图示 )的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: 【数据挖掘】聚类算法 简介 ( 基于划分
- 下一篇: 【数据挖掘】K-Means 二维数据聚类