当前位置: 首页 > news >正文

机器学习(一)KNN,K近邻算法(K-Nearest Neighbors)

💡 建议初学者掌握KNN作为理解其他复杂算法(如SVM、决策树、神经网络)的基石。

K近邻算法(K-Nearest Neighbors, KNN)详解:原理、实践与优化

K近邻算法(K-Nearest NeighboKrs,简称KNN)是一种经典、直观且易于实现的监督学习方法,既可用于分类,也可用于回归。它“懒惰”地存储所有训练样本,直到有新样本需要预测时才临时计算,因此也被称为“懒惰学习算法”。
本文将系统介绍KNN的核心思想、算法流程、距离度量、超参数、优缺点、使用方法与完整Python实战案例,帮助读者从理论到实践全面掌握这一算法。


一、核心思想 🧠

KNN 基于以下假设:

近朱者赤,近墨者黑”:一个样本的标签很可能与其最近邻的样本标签一致。

具体流程:

  • 对新样本,计算它与训练集中所有样本的距离;

  • 选出距离最小的 K 个邻居;

  • 分类:根据邻居类别投票(通常为多数投票,但可加权);

  • 回归:返回邻居标签的平均值或加权平均值。

其中,三个核心超参数影响性能:

  • K 值

  • 距离度量方式

  • 投票或加权策略


二、算法流程(以分类为例)

  1. 准备训练集与测试集

  2. 对测试集中每个新样本,计算其与所有训练样本的距离

  3. 对距离排序,选取最近的 K 个邻居

  4. 投票或加权,输出预测类别

  5. 返回所有样本的预测值(分类/回归结果)


三、常见距离度量方法

不同的任务场景和数据类型,可能需要不同的距离度量方式:

距离类型定义适用场景
欧氏距离(L₂)∑(xi−yi)2\sqrt{\sum (x_i - y_i)^2}连续特征,标准的距离度量
曼哈顿距离(L₁)(\sumx_i - y_i
闵可夫斯基距离(Lₚ)(\left(\sumx_i - y_i
余弦相似度x⋅y∥x∥∥y∥\dfrac{x \cdot y}{\|x\|\|y\|}文本或向量空间数据的方向相似度
汉明距离不同位数数目分类特征、二进制特征或字符串比较

⚠️ 注意:使用KNN前通常需要对数据做标准化(如Z-score或Min-Max),防止量纲不同导致距离计算失真。


四、KNN的关键超参数

1. K值选择

  • K太小 → 模型复杂,容易过拟合,对噪声敏感;

  • K太大 → 模型过于平滑,可能欠拟合。

通常使用**交叉验证(GridSearchCV)**选择合适的K值。

2. 距离度量方式

根据特征类型和数据分布选择距离函数(见上表)。

3. 权重策略

  • uniform:每个邻居权重相同;

  • distance:距离越近的邻居权重越大。

4. 最近邻搜索算法

  • brute:暴力搜索,适合小规模数据;

  • kd_tree / ball_tree:适合中等维度(<30)的数据;

  • 高维/大规模数据推荐使用近似搜索库:如 Faiss、Annoy、ScaNN。


五、KNN的优缺点

✅ 优点

  • 简单直观,易于实现;

  • 无需训练,可直接使用训练数据;

  • 天然支持多分类与回归;

  • 非线性决策边界处理能力强。

❌ 缺点

  • 预测时计算量大,难以实时响应;

  • 内存消耗高,需保存全部训练样本;

  • 高维数据效果差(维度灾难);

  • 对异常值、数据不平衡敏感。


六、KNN使用方法

发挥knn作用的代码:

# 创建一个 KNN 分类器对象,设置邻居数量 k=3
knn = KNeighborsClassifier(n_neighbors=3)# 在训练集上训练模型
knn.fit(X_train, y_train)# 在测试集上进行预测
y_pred = knn.predict(X_test)# 评估预测结果的准确率
accuracy = accuracy_score(y_test, y_pred)

核心参数:

  1. n_neighbors

    • 类型:整数,默认值为 5。
    • 作用:指定用于分类的近邻数量(即 K 值)。
    • 示例n_neighbors=3表示选择最近的 3 个样本进行投票。
  2. weights

    • 类型:字符串或可调用函数,默认值为'uniform'
    • 作用:确定近邻的权重计算方式。
      • 'uniform':所有近邻权重相等。
      • 'distance':权重与距离成反比(距离越近,权重越大)。
      • 自定义函数:需接受距离数组并返回权重数组。
  3. algorithm

    • 类型:字符串,可选值为'auto''ball_tree''kd_tree''brute',默认'auto'
    • 作用:选择用于计算最近邻的算法。
      • 'auto':自动选择最合适的算法。
      • 'brute':暴力搜索(适用于小规模数据)。
      • 'kd_tree':KD 树(适用于低维数据)。
      • 'ball_tree':球树(适用于高维数据)。
  4. leaf_size

    • 类型:整数,默认值为 30。
    • 作用:控制ball_treekd_tree的叶节点大小。
    • 影响:较小的值会增加树的构建时间,但可能提高查询效率。
  5. p

    • 类型:整数,默认值为 2。
    • 作用:明可夫斯基距离(Minkowski distance)的参数。
      • p=1:曼哈顿距离(L1 范数)。
      • p=2:欧氏距离(L2 范数)。
      • 其他值:推广的 Minkowski 距离。

使用案例:

以鸢尾花数据为例(可直接导入数据)完整代码:

# 导入所需的库
from sklearn.datasets import load_iris                      # 用于加载鸢尾花数据集
from sklearn.model_selection import train_test_split        # 用于划分训练集和测试集
from sklearn.neighbors import KNeighborsClassifier          # K近邻分类器
from sklearn.metrics import accuracy_score                  # 用于评估模型准确率# 1. 加载鸢尾花数据集(Iris 数据集是一个经典的机器学习分类数据集)
iris = load_iris()          # 加载数据集
X = iris.data               # 特征数据:4个特征(花萼长度、花萼宽度、花瓣长度、花瓣宽度)
y = iris.target             # 标签数据:3个类别(0=setosa,1=versicolor,2=virginica)# 2. 将数据集划分为训练集和测试集
# test_size=0.2 表示20%作为测试集,80%作为训练集
# random_state=42 保证每次运行划分方式一致(可复现)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 3. 创建一个 KNN 分类器对象,设置邻居数量 k=3
knn = KNeighborsClassifier(n_neighbors=3)# 4. 在训练集上训练模型
knn.fit(X_train, y_train)# 5. 在测试集上进行预测
y_pred = knn.predict(X_test)# 6. 评估预测结果的准确率
accuracy = accuracy_score(y_test, y_pred)
print("模型在测试集上的准确率:", accuracy)


七、实践建议与优化技巧

问题类型优化建议
高维数据(维度灾难)使用 PCA、t‑SNE、UMAP 等进行降维处理
类别不平衡使用加权投票(distance)或 SMOTE 等过采样方法
大规模训练样本使用 Faiss、Annoy 等近似邻居搜索库
实时响应需求构建索引结构(KD‑Tree、Ball‑Tree)或 LSH 近似搜索
噪音点/异常值结合局部加权(如 LOF)、数据清洗与异常检测
特征不同类型混合对类别型特征采用合适距离度量(如汉明距离 + 欧氏距离组合)


八、应用场景与适用领域

KNN 虽然简单,但在以下领域仍有广泛应用:

  • 推荐系统(基于用户/物品最近邻推荐)

  • 图像检索(基于特征向量的最近邻搜索)

  • 异常检测(判断样本是否偏离常见邻居)

  • 文本分类(TF‑IDF 向量 + 余弦相似度)


九、总结与拓展

  • 优点:无训练过程、易于理解、适用性广;

  • 挑战:对计算资源依赖高、受高维影响严重;

  • 优化路径:标准化、降维、加速邻居搜索、参数调优、类别平衡处理。

KNN凭借其“无需训练,拿来即用”的特点,是机器学习中最容易理解和实现的算法之一。虽然它在高维、高频场景中存在计算瓶颈,但通过特征工程、参数调优和搜索优化,KNN依然能够在推荐系统、图像检索、异常检测、文本分类等任务中大放异彩

💡 建议初学者掌握KNN作为理解其他复杂算法(如SVM、决策树、神经网络)的基石。

http://www.xdnf.cn/news/1187641.html

相关文章:

  • [硬件电路-85]:一款高集成度热电制冷器(TEC)控制器芯片ADN8835ACPZ
  • 工程师实践出真知
  • 【Spring WebFlux】为什么 Spring 要拥抱响应式
  • java面试题(一)
  • 基于深度学习的图像分类:使用DenseNet实现高效分类
  • 解决 Delete ␍ prettier/prettier问题的方案
  • TwinCAT3编程入门1
  • 理解Spring中的IoC
  • 探索 MyBatis-Plus
  • [2025CVPR-图象分类方向]SPARC:用于视觉语言模型中零样本多标签识别的分数提示和自适应融合
  • TDengine 转化函数 TO_UNIXTIMESTAMP 用户手册
  • S7-1500 与 ET200MP 的组态控制通信(Configuration Control)功能实现详解(下)
  • 【vue3+vue-pdf-embed】实现PDF+图片预览
  • 文件被删除了怎么恢复?恢复方法总结与重点注意事项
  • Mysql 日志 binlog redolog
  • deepseek本地部署,轻松实现编程自由
  • 在线事务型的业务、实时分析类业务、离线处理类型的业务
  • 数据赋能(332)——安全与合规——保密管理
  • MJ11032G和MJ11033G是对管由onsemi/安森美公司研发的一款高性能、低功耗的达林顿晶体管
  • Node.js(三)之Express
  • Zero-Shot TrackingT0:对象分割+运动感知记——当“切万物”武士学会运动记忆,目标跟踪稳如老狗
  • ESP32学习笔记_Components(1)——使用LED Strip组件点亮LED灯带
  • 图论水题日记
  • MC_GearInPos电子齿轮
  • ISIS高级特性LSP的分片扩展
  • Cacti 前台命令注入漏洞(CVE-2022-46169)
  • 深入解析Linux匿名管道机制与应用
  • 浅析PCIe 6.0 ATS地址转换功能
  • python基础:request模块简介与安装、基本使用,如何发送get请求响应数据,response属性与请求头
  • SpringBoot学习路径--SpringBoot的简单介绍和项目搭建