当前位置: 首页 > ai >正文

机器学习——朴素贝叶斯法运用

一、朴素贝叶斯法

1.1  基本概念

朴素贝叶斯法是一种基于贝叶斯定理的简单概率分类方法,它假设特征之间相互独立。它适用于分类问题,尤其是在文本分类中表现良好。其核心思想是通过考虑各个特征的概率来预测分类(即对于给出的待分类样本,计算该样本在每个类别下出现的概率,最大的就被认为是该分类样本所属于的类别

1.2  朴素贝叶斯的一般过程

1.准备数据:收集并预处理数据,将数据分为特征和标签

2.特征选择:选择对分类有帮助的特征

3.模型训练:使用训练数据计算每个类别的先验概率和条件概率

4.预测:对新数据进行分类,选择概率最大的类别作为预测结果

1.3  朴素贝叶斯的优缺点

1.优点

  • 具有稳定的分类效率
  • 在数据较少时仍然有效,可以处理多类别的问题
  • 对缺失数据不太敏感
  • 进行分类时对时间和空间的开销都比较小

2.缺点

  • 对于输入数据的准备方式比较敏感,需要对数据进行适当的预处理
  • 需要假设属性之间相互独立,这在实际情况中往往不太现实
  • 需要知道先验概率,但是由于先验概率大多取决于假设,故很容易因此导致预测效果不佳

1.4  朴素贝叶斯应用场合

朴素贝叶斯主要被广泛地应用在文本分类垃圾邮件过滤情感分析等场合

二、算法原理

2.1  计算公式

1.贝叶斯定理

朴素贝叶斯算法的核心是贝叶斯定理,公式如下:

其中:

  • P(y|X)是后验概率,即在给定特征 X 的情况下类别 y 的概率
  • P(X|y)是条件概率,即在类别 y 的情况下特征 X 的概率
  • P(y)是类别y的先验概率
  • P(X)是特征X的边缘概率

2.条件独立性假设

联合概率分解为:

3.最终分类决策

选择使后验概率最大的类别:

2.2  计算步骤

1.计算先验概率

2.计算条件概率

离散特征:

连续特征(假设服从高斯分布):

3.计算联合后验概率(取对数避免下溢)

4.计算最大概率对应的类别

2.3  贝叶斯公式涉及概率

  1. 先验概率:根据以往的经验和分析得出的,对某个事件发生概率的初始假设估计
  2. 条件概率:指在某个事件A已经发生的条件下,另一个事件B发生的概率
  3. 后验概率:指在考虑了新的证据或数据之后,我们对某个事件发生的概率的更新估计
  4. 边缘概率:指不考虑其他事件的情况下,某个事件发生的概率
  5. 联合概率:指两个或多个事件同时发生的概率

2.4  平滑处理(避免零概率事件)

1.拉普拉斯平滑(适用于离散特征):

三、实例:判断西瓜好坏

3.1  测试数据

1.相关数据集

2.对新数据进行西瓜品质分类,测试数据如下

编号色泽根蒂敲声纹理脐部触感密度含糖率好瓜
测1青绿蜷缩浊响清晰凹陷硬滑0.6970.460

3.2  数据集分析

1.计算先验概率

在所给的相关数据集中,总共有17个数据,其中最后判别结果为好瓜的有8个,坏瓜的有9个,分别计算好瓜和坏瓜的先验概率,如下图:

2.计算条件概率

(1)离散特征(色泽、根蒂等):

(2)连续特征(密度、含糖率等)(假设服从高斯分布):

由于 密度=0.697 含糖率=0.460 在坏瓜中没有出现(概率=0),直接计算会导致零概率问题,因此需要使用拉普拉斯平滑调整:

调整后的概率:

3.计算联合后验概率(直接相乘)

(1)好瓜的联合后验概率:

(2)坏瓜的联合后验概率:

4.比较后验概率

由好瓜和坏瓜的联合后验概率计算结果可以很明显的看出:

P( 好瓜 | x) > P( 坏瓜 | x)

因此我们可以得出结论,预测测1的西瓜为好瓜

3.3  测试代码

import numpy as np
import pandas as pd# 加载数据集函数
def loadDataset():dataset = [['青绿', '蜷缩', '浊响', '清晰', '凹陷', '硬滑', 0.697, 0.460, '是'],['乌黑', '蜷缩', '沉闷', '清晰', '凹陷', '硬滑', 0.774, 0.376, '是'],['乌黑', '蜷缩', '浊响', '清晰', '凹陷', '硬滑', 0.634, 0.264, '是'],['青绿', '蜷缩', '沉闷', '清晰', '凹陷', '硬滑', 0.608, 0.318, '是'],['浅白', '蜷缩', '浊响', '清晰', '凹陷', '硬滑', 0.556, 0.215, '是'],['青绿', '稍蜷', '浊响', '清晰', '稍凹', '软粘', 0.403, 0.237, '是'],['乌黑', '稍蜷', '浊响', '稍糊', '稍凹', '软粘', 0.481, 0.149, '是'],['乌黑', '稍蜷', '浊响', '清晰', '稍凹', '硬滑', 0.437, 0.211, '是'],['乌黑', '稍蜷', '沉闷', '稍糊', '稍凹', '硬滑', 0.666, 0.091, '否'],['青绿', '硬挺', '清脆', '清晰', '平坦', '软粘', 0.243, 0.267, '否'],['浅白', '硬挺', '清脆', '模糊', '平坦', '硬滑', 0.245, 0.057, '否'],['浅白', '蜷缩', '浊响', '模糊', '平坦', '软粘', 0.343, 0.099, '否'],['青绿', '稍蜷', '浊响', '稍糊', '凹陷', '硬滑', 0.639, 0.161, '否'],['浅白', '稍蜷', '沉闷', '模糊', '凹陷', '硬滑', 0.657, 0.198, '否'],['乌黑', '稍蜷', '浊响', '清晰', '稍凹', '软粘', 0.360, 0.370, '否'],['浅白', '蜷缩', '浊响', '模糊', '平坦', '硬滑', 0.593, 0.042, '否'],['青绿', '蜷缩', '沉闷', '稍糊', '稍凹', '硬滑', 0.719, 0.103, '否']]testset = [['青绿', '蜷缩', '浊响', '清晰', '凹陷', '硬滑', 0.697, 0.460]]labels = ['色泽', '根蒂', '敲声', '纹理', '脐部', '触感', '密度', '含糖率', '好瓜']return dataset, testset, labels# 计算先验概率P(C)
def prior(C):dataset = loadDataset()[0]counts = 0countAll = len(dataset)for item in dataset:if item[-1] == C:counts += 1P_C = round(counts / countAll, 3)return P_C# 计算条件概率P(x|C)
def P_x_given_C(x, C, labels=loadDataset()[2]):dataset = loadDataset()[0]counts = 0countB = 0for item in dataset:if item[-1] == C:lst = [item[index] for index, feature in enumerate(labels) if feature != '好瓜']if x in lst:counts += 1countB += 1P_x_given_C = round(counts / countB, 3)return P_x_given_C# 计算所有特征的后验概率并进行比较
def classify():dataset, testset, labels = loadDataset()test_data = testset[0]results = []for cla in ('是', '否'):p = prior(cla)for x in test_data:fx_x_given_c = P_x_given_C(x, cla, labels)p *= fx_x_given_cresults.append((cla, p))results.sort(key=lambda x: x[1], reverse=True)return results[0][0]# 预测新数据
new_data = ['青绿', '蜷缩', '浊响', '清晰', '凹陷', '硬滑', 0.697, 0.460
]
prediction = classify()
print("新数据特征:", new_data)
print("预测结果:", "好瓜" if prediction == '是' else "坏瓜")

3.4  测试结果分析

1.运行截图

2.结果分析

  • 加载数据集函数(loadDataset)

(1)这个函数定义了训练数据集和测试数据集,以及它们的标签
(2)数据集包括特征如色泽、根蒂、敲声等,以及目标变量“好瓜”

  • 计算先验概率(prior)

(1)这个函数计算给定类别(“是”或“否”)的先验概率
(2)它通过计算每个类别在数据集中出现的次数与总数据集大小的比例来实现

  • 计算条件概率

(1)这个函数计算在给定类别下某个特征值的条件概率
(2)它通过计算该特征值在特定类别下出现的次数与该类别总出现次数的比例来实现

  • 分类函数(classify)

(1)这个函数使用朴素贝叶斯定理来预测测试数据的类别。
(2)它计算测试数据在每个类别下的后验概率,并选择概率最大的类别作为预测结果

  •  预测结果分析

测试数据:

  • 色泽: 青绿
  • 根蒂: 蜷缩
  • 敲声: 浊响
  • 纹理: 清晰
  • 脐部: 凹陷
  • 触感: 硬滑
  • 密度: 0.697
  • 含糖率: 0.460

预测结果:

  • 根据代码输出,预测结果为“好瓜”
  •  结果合理性
  • 数据分布:在训练数据中,具有相似特征的西瓜大多数被标记为“好瓜”。这表明模型有足够的证据将这些特征与“好瓜”类别关联起来
  • 模型假设:朴素贝叶斯模型假设特征之间相互独立,这在实际应用中可能不完全成立,但通常可以提供合理的预测结果,尤其是在特征数量较多且特征之间确实相对独立的情况下
  • 模型性能:由于朴素贝叶斯模型简单且计算效率高,它通常适用于初步的分类任务。然而,对于更复杂的数据集或需要更高精度的应用,可能需要考虑更复杂的模型
http://www.xdnf.cn/news/2140.html

相关文章:

  • 网络攻防第一~四集
  • T型三电平逆变器的SPWM线电压 线与中点电压有几种电平
  • 关闭网桥的STP,解决RHEL10上qemu使用u-boot加载uImage自动加载失败的问题
  • 驱动汽车供应链数字化转型的标杆解决方案:全星研发项目管理APQP软件系统:
  • DP主站转485操作流程
  • vuePress开发和使用
  • WebAssembly全栈革命:在Rust与JavaScript之间构建高性能桥梁
  • 如何轻松将RS232转为Profibus DP,提升PLC效率?
  • ClickHouse查询执行与优化
  • 数据过滤器
  • 阿里云域名智能解析至国内外AWS的合规化部署指南
  • Windows11系统中GIT下载
  • 系统架构设计中的DSSA方法:理论、实践与行业深度应用
  • 【SwitchyOmega安装教程】
  • 【Token系列】01 | Token不是词:GPT如何切分语言的最小单元
  • 思科路由器重分发(RIP动态路由+静态路由)
  • 强化学习:高级策略梯度理论与优化方法
  • react的fiber 用法
  • 6.1腾讯技术岗2025面试趋势前瞻:大模型、云原生与安全隐私新动向
  • 重定向和语言级缓冲区【Linux操作系统】
  • 用python写一个相机选型的简易程序
  • RTMP 协议解析 1
  • Linux0.11内存管理:相关代码
  • 从零实现 registry.k8s.io/pause:3.8 镜像的导出与导入
  • 山东大学软件学院项目实训-基于大模型的模拟面试系统-网页图片显示问题
  • 基于开源技术体系的品牌赛道力重构:AI智能名片与S2B2C商城小程序源码驱动的品类创新机制研究
  • 月之暗面开源 Kimi-Audio-7B-Instruct,同时支持语音识别和语音生成
  • 推荐三款GitHub上高星开源的音乐搜索平台
  • 华为OD机试真题——素数之积RSA加密算法(2025A卷:100分)Java/python/JavaScript/C/C++/GO最佳实现
  • JDK 17 与 Spring Cloud Gateway 新特性实践指南