当前位置: 首页 > news >正文

K-Means算法详细解析:从原理到实践

前言

K-Means 是一种非常经典、常用的 聚类算法。它属于无监督学习范畴,广泛应用于图像压缩、市场细分、社交网络分析、用户画像等场景。本文将由浅入深逐带你逐步全面了解 K-Means这个算法的原理到底是什么。

聚类介绍

**聚类(Clustering)**是将数据按“相似性”划分为若干组的过程,每组称为一个“簇(Cluster)”。

  • 输入:一堆没有标签的数据点。
  • 输出:这些点被划分为 K 组,每组内点相似、组与组之间差异大。

可以这么理解:老师把学生按身高或成绩分成不同的小组。

K-Means 介绍

K-Means 是一种“划分式聚类算法”。它的目标是:将数据划分成 K 个簇,使得同簇样本尽可能相似,不同簇样本尽可能不同。

每个簇用一个“质心(Centroid)”表示,质心就是这组数据的平均点。

K-Means 算法流程

K-Means 的算法流程很简单,说白了就是搞一个分组游戏,比如下数据划分。

输入:

  • 数据集 X = { x 1 , x 2 , … , x n } X = \{x_1, x_2, \ldots, x_n\} X={x1,x2,,xn}
  • 要分成的簇数 K

步骤:

  1. 初始化 K 个中心点(质心):随机选 K 个样本点作为初始质心。
  2. 分配步骤(Assignment step):将每个样本分配给最近的质心
  3. 更新步骤(Update step):对每个簇,计算其所有成员的平均值作为新的质心。
  4. 迭代执行步骤 2 和 3,直到质心不再变化或达到最大迭代次数。

目标函数:
K-Means 实际上在最小化所有点到其所属簇中心的欧几里得距离平方之和,即:

J = ∑ i = 1 K ∑ x ∈ C i ∥ x − μ i ∥ 2 J = \sum_{i=1}^{K} \sum_{x \in C_i} \| x - \mu_i \|^2 J=i=1KxCixμi2

其中 C i C_i Ci 是第 i 个簇, μ i \mu_i μi 是该簇的质心。

数学原理理解

选“质心”

因为根据数学推导,一组点到某个点的欧几里得平方距离和最小值,就是所有点的平均值。这也解释了为什么质心更新为“平均值”。

能收敛

K-Means 迭代过程中,每一步都在减少目标函数 J J J 的值,且 K 种分法有限,所以必定收敛(虽然可能收敛到局部最优)。

K 的选取问题

K 是一个超参数,用户需要手动指定。

常见选法:

肘部法(Elbow Method):

  • 计算不同 K 值下的总误差平方和 SSE(Sum of Squared Errors)。
  • 绘制 K vs SSE 曲线,找到“SSE下降明显变缓”的“肘部”,这个点对应的 K 就是最优值。

这么做,画一张图,横轴是 K 值,纵轴是聚类误差(SSE)。

  • K 小的时候,增加 K 会显著降低误差;

  • 当 K 增大到一定值时,误差下降幅度变小;

  • 那个“下降开始变缓的转折点”就像人的“手肘”——就是最优 K!

import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
from sklearn.datasets import make_blobsX, _ = make_blobs(n_samples=500, centers=5, random_state=42)sse = []
K_range = range(1, 10)
for k in K_range:kmeans = KMeans(n_clusters=k, random_state=42)kmeans.fit(X)sse.append(kmeans.inertia_)  # inertia_ 就是 SSEplt.plot(K_range, sse, marker='o')
plt.xlabel("K")
plt.ylabel("SSE")
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.title("肘部法选择最佳K")
plt.show()

在这里插入图片描述

轮廓系数(Silhouette Coefficient):

衡量样本在簇内的紧密程度与簇间的分离度,值越高越好。
在这里插入图片描述

from sklearn.metrics import silhouette_scorescores = []
for k in range(2, 10):kmeans = KMeans(n_clusters=k, random_state=42)labels = kmeans.fit_predict(X)score = silhouette_score(X, labels)scores.append(score)plt.plot(range(2, 10), scores, marker='o')
plt.xlabel("K")
plt.ylabel("轮廓系数")
plt.title("用轮廓系数选最佳K")
plt.show()

在这里插入图片描述

K-Means 的优缺点

优点:

  • 算法简单高效,易实现
  • 聚类结果容易理解
  • 速度快,适合大规模数据

缺点:

  • 必须预先指定 K
  • 对初始质心敏感,可能陷入局部最优
  • 不能处理非球形或不同大小密度的簇
  • 对异常值敏感

K-Means示例代码

我们用 sklearn 快速实现 K-Means 聚类:

import matplotlib.pyplot as plt
from matplotlib import font_manager
from sklearn.cluster import KMeans
from sklearn.datasets import make_blobs# 生成模拟数据
X, y_true = make_blobs(n_samples=300, centers=4, cluster_std=1, random_state=42)
font = font_manager.FontProperties(fname='C:/Windows/Fonts/simfang.ttf')
# 可视化数据
plt.scatter(X[:, 0], X[:, 1], s=30)
plt.title("原始数据分布", fontproperties=font)
plt.show()# KMeans 聚类
kmeans = KMeans(n_clusters=4)
kmeans.fit(X)
y_kmeans = kmeans.predict(X)# 可视化聚类结果
plt.scatter(X[:, 0], X[:, 1], c=y_kmeans, cmap='viridis')
plt.scatter(kmeans.cluster_centers_[:, 0], kmeans.cluster_centers_[:, 1],s=200, c='red', marker='X')
plt.title("K-Means 聚类结果", fontproperties=font)
plt.show()

在这里插入图片描述

在这里插入图片描述

常见变体与扩展

  • K-Means++:改进初始质心选择,避免陷入局部最优
  • Mini-Batch K-Means:使用小批量数据进行迭代,适合大数据
  • Bisecting K-Means:层次化地进行 KMeans 聚类
  • Spectral Clustering:结合图论和 KMeans 的方法

总结

K-Means 是一把“快速有效”的聚类工具,理解了它的原理之后,可以灵活用于很多任务中。记得注意:

  • K 的选择很关键;
  • 适合球形簇、相似大小的簇
  • 可结合其他方法(如 PCA)进行降维预处理;
  • 可与其他算法(如 DBSCAN、GMM)互补使用。
http://www.xdnf.cn/news/1053703.html

相关文章:

  • C++ STL常用二分查找算法
  • 2025年品牌定位推荐排行榜:锚定市场航向,解锁品牌增长新势能
  • Python+QT远程控制助手-ver2
  • 《注解的江湖:一场元数据的“宫斗剧”》
  • 每日算法刷题Day32 6.15:leetcode枚举技巧7道题,用时1h10min
  • 计网复习知识(17)应用层
  • jQuery 3D透明蓄水池状柱状图插件
  • IDA动态调试环境配置全流程
  • 【Markdown】基础用法汇总(标题、列表、链接、图片、加粗斜体、上下角标、引用块、代码块、公式)
  • 学习日记-day30-6.15
  • Linux安装LLaMA Factory
  • Netty 全面深入学习指南
  • 项目实训个人工作梳理
  • 【算法 day03】LeetCode 203.移除链表元素 | 707.设计链表 | 206.反转链表
  • nodejs中Express框架的基本使用
  • ​​信息系统项目管理师-项目范围管理 知识点总结与例题分析​​
  • Claude Code 实用教程——使用方法详解
  • 庙算兵棋推演AI开发初探(8-神经网络模型接智能体进行游戏)
  • 文本预测和分类任务
  • [笔记] 基于esp32s3用GUI-Guider-1.9.1-GA开发LVGL界面
  • 认识电子元器件之磁传感器
  • Spring有代理对象的循环依赖时,如何确保代理对象能够正确持有原始对象的所有属性赋值结果?
  • 234. 回文链表
  • SQL 增删改查 —— 笔记篇
  • 面向对象设计原则
  • 深度学习——基于卷积神经网络实现食物图像分类【3】(保存最优模型)
  • React19源码系列之Hooks(useState)
  • Linux中的连接符
  • 谐波减速器 MINIF8 和 MINIF11 的区别
  • 事务传播机制分析:用户注册场景分析