当前位置: 首页 > news >正文

机器学习——支持向量机(SVM)实战案例

SVM的 核函数超参数 介绍

机器学习——支持向量机(SVM)-CSDN博客https://blog.csdn.net/2302_78022640/article/details/150073569


支持向量机(SVM)实战案例:鸢尾花部分数据 二分类与决策边界可视化

支持向量机(Support Vector Machine,SVM)是一种常用的监督学习分类算法,核心思想是找到一个能够最大化类别间隔的超平面,实现数据的分类。本案例将通过鸢尾花数据集(Iris)构建一个二分类模型,并绘制决策边界和支持向量。


1. 数据准备与选择特征

from sklearn.datasets import load_iris
from sklearn.svm import SVC
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams["font.family"] = ["SimHei", "WenQuanYi Micro Hei", "Heiti TC"]# 加载鸢尾花数据集
iris = load_iris()
data = iris.data
target = iris.target# 只取前两类(setosa 和 versicolor)以及两个特征:花萼长度(0)和花瓣长度(2)
X = data[0:100, [0, 2]]
y = target[0:100]

说明:

  • 鸢尾花数据集共有 150 个样本、3 个类别(0、1、2)。

  • 为了便于二维可视化,这里取前两类(标签 0 和 1),并且只用两个特征(便于画二维平面)。


2. 构建并训练 SVM 模型

# 线性核函数,C=∞ 相当于硬间隔 SVM
model = SVC(kernel='linear', C=float('inf'), random_state=100)
model.fit(X, y)

核心参数解释:

  • kernel='linear':使用线性核函数,适用于线性可分的情况。

  • C=float('inf'):惩罚因子 C 越大,对误分类的容忍度越低,这里取无限大相当于硬间隔最大化

  • random_state:随机种子,保证结果可复现。


3. 数据可视化

# 绘制两类数据的散点图
plt.scatter(X[0:50, 0], X[0:50, 1], c='r', marker='o', label='类别0')
plt.scatter(X[50:100, 0], X[50:100, 1], c='g', marker='+', label='类别1')
  • 类别 0(红色圆点)

  • 类别 1(绿色加号)


4. 绘制决策边界和间隔线

# 获取超平面参数 w 和 b
w = model.coef_[0]
b = model.intercept_[0]# 决策边界:w1*x1 + w2*x2 + b = 0
x1 = np.linspace(0, 10, 100)
x2 = -(w[0] * x1 + b) / w[1]# 间隔边界:w1*x1 + w2*x2 + b = ±1
x3 = (1 - (w[0] * x1 + b)) / w[1]
x4 = (-1 - (w[0] * x1 + b)) / w[1]# 绘制
plt.plot(x1,x2,c='b',label='决策边界')
plt.plot(x1,x3,c='b',linestyle='--',label='间隔边界')
plt.plot(x1,x4,c='b',linestyle='--',label='间隔边界')
  • 实线:决策边界

  • 虚线:两条间隔边界,支持向量位于这两条线上。


5. 标记支持向量

# 获取支持向量
vets = model.support_vectors_
plt.scatter(vets[:, 0], vets[:, 1], s=100, facecolors='none', edgecolors='b', label='支持向量')

支持向量是离决策边界最近的样本点,SVM 的优化目标就是最大化这些点到边界的间隔。

model.support_vectors_ 是一个 numpy.ndarray,形状为 (n_support_vectors, n_features)

每一行就是一个支持向量在训练时使用的特征空间坐标(即训练时输入给 SVM 的特征,若训练前做过 StandardScaler/PCA 等变换,则这里是变换后的坐标)。

  • vets[:, 0], vets[:, 1]

    • 取支持向量矩阵的第 0 列和第 1 列作为 x、y 坐标 —— 前提是数据确实是二维若维度 >2,需要先降维(PCA/t-SNE)再画图。

  • s=100

    • 标记大小,注意:s 表示点的面积(points^2),不是半径。s=100 比较显眼;需要更大更明显可以改成 s=150s=300

  • facecolors='none'

    • 使标记内部不填充(空心),这样可以“圈出”点而不遮挡原来的颜色/形状。常用于突出某些点(比如支持向量)。

  • edgecolors='b'

    • 标记边缘颜色设为蓝色('b')。当 facecolors='none' 且 marker 是可填充(如 'o')时,会画成蓝色空心圆。

  • label='支持向量'

    • 用于图例显示。


6. 显示结果

plt.legend()
plt.show()

运行结果:

  • 红色圆点和绿色加号分别代表两类样本。

  • 蓝色实线是决策边界,虚线是最大间隔线。

  • 蓝色圈出的点是支持向量。


7. 结果与分析

1. 支持向量(Support Vectors)

  • 定义:支持向量是离分类边界最近的样本点,它们位于最大间隔边界上。

  • 作用

    1. 唯一决定分类超平面的位置和方向。

    2. 不是所有样本都会影响分类结果,只有支持向量才会参与优化计算。

    3. 如果移除非支持向量,模型的分类结果不会变;但如果移除支持向量,边界会发生变化。

  • 在图中:蓝色圈出来的点,就是支持向量。


2. 决策边界(Decision Boundary)

  • 数学形式

    这是模型最终找到的最佳分类超平面,它能最大化两类样本的间隔。

  • 作用

    • 处在该线上的点,SVM 判断它们属于哪一类的概率是五五开(分类决策值为 0)。

    • 决策边界左侧的点判为一类,右侧的点判为另一类(对于二维空间而言)。

  • 在图中:蓝色实线是决策边界。


3. 间隔边界(Margin Boundaries)

  • 数学形式

    这两条线表示离决策边界等距离的两条平行线。

  • 作用

    1. 间隔(Margin)是这两条虚线之间的区域,SVM 会努力让这个区域尽可能宽。

    2. 支持向量正好落在这两条虚线上。

  • 在图中

    • 蓝色虚线是最大间隔边界。

    • 其中一条虚线紧贴类别 0 的支持向量,另一条紧贴类别 1 的支持向量。


8. 完整代码

from sklearn.datasets import load_iris
from sklearn.svm import SVC
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams["font.family"] = ["SimHei", "WenQuanYi Micro Hei", "Heiti TC"]iris = load_iris()
data = iris.data
X = data[0:100,[0,2]]
y = iris.target[0:100]
model = SVC(kernel='linear', C=float('inf'), random_state=100)
model.fit(X, y)plt.scatter(X[0:50,0],X[0:50,1],c='r',marker='o',label='类别0')
plt.scatter(X[50:100,0],X[50:100,1],c='g',marker='+',label='类别1')w = model.coef_[0]
b = model.intercept_[0]x1 = np.linspace(0,10,100)
x2 = -(w[0]*x1+b)/w[1]
x3 = (1-(w[0]*x1+b))/w[1]
x4 = (-1-(w[0]*x1+b))/w[1]plt.plot(x1,x2,c='b',label='决策边界')
plt.plot(x1,x3,c='b',linestyle='--',label='间隔边界')
plt.plot(x1,x4,c='b',linestyle='--',label='间隔边界')vets = model.support_vectors_
plt.scatter(vets[:,0],vets[:,1],s=100,facecolors='none', edgecolors='b',label='支持向量')plt.legend()
plt.show()

http://www.xdnf.cn/news/1263925.html

相关文章:

  • wodpress结构化数据对SEO的作用
  • 在 Debian 系统上安装 Redis服务
  • R语言代码加密(1)
  • OpenBMC中libgpio架构与驱动交互全解析:从硬件映射到应用控制
  • 《Graph machine learning for integrated multi-omics analysis》
  • 机器学习——KMeans聚类算法(算法原理+超参数详解+实战案例)
  • Vuex 数据共享
  • Shell脚本实现自动封禁恶意扫描IP
  • 第39周——训练自己的数据集
  • vscode EIDE 无法编译,提示 “文件名、目录名或卷标语法不正确;
  • C语言编译流程讲解
  • centos出现ping: baidu.com: 未知的名称或服务问题
  • DMETL简单介绍、安装部署和入门尝试
  • nflsoi 8.8 题解
  • Linux 内核发包流程与路由控制实战
  • 用 “故事 + 价值观” 快速建立 IP 信任感
  • 亚马逊广告运营如何平衡ASIN投放和关键词投放
  • Chrome DevTools Protocol 开启协议监视器
  • C/C++与JavaScript的WebAssembly协作开发指南
  • Vue框架总结案例
  • 机器学习-----SVM(支持向量机)算法简介
  • PEV2(PostgreSQL Explain Visualizer 2)
  • 「安全发」ISV对接支付宝+小猎系统
  • DataFun联合开源AllData社区和开源Gravitino社区将在8月9日相聚数据治理峰会论坛
  • Blob File Buffer ArrayBuffer uint8Array DataView 的关联
  • 使用pytest对接口进行自动化测试
  • 5. 缓存-Redis
  • Java文件操作与IO流核心技术解析
  • 【matlab】采样信号的低通滤波、高通滤波
  • PeiQi网络安全知识文库PeiQi-WIKI-Book保姆式搭建部署教程