当前位置: 首页 > news >正文

机器学习与深度学习06-决策树02

目录

    • 前文回顾
    • 5.决策树中的熵和信息增益
    • 6.什么是基尼不纯度
    • 7.决策树与回归问题
    • 8.随机森林是什么

前文回顾

上一篇文章地址:链接

5.决策树中的熵和信息增益

熵和信息增益是在决策树中用于特征选择的重要概念,它们帮助选择最佳特征进行划分。

  1. 熵(Entropy):熵是信息论中用来度量不确定性或混乱程度的概念。在决策树中,熵被用来度量一个节点的不纯度,即该节点包含多少不同类别的样本,熵的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例

E n t r o p y ( t ) = − ∑ i = 1 c p i log ⁡ 2 ( p i ) Entropy(t) = - \sum_{i = 1}^{c} p_i \log_2(p_i) Entropy(t)=i=1cpilog2(pi)
其中,c表示类别的数量。熵的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高。

  1. 信息增益(Information Gain):信息增益用于选择最佳特征来划分数据集。它衡量了通过选择某个特征进行划分后,父节点的熵减少了多少,即子节点的不纯度相对于父节点而言减少了多少, 信息增益的计算公式为
    I n f o r m a t i o n G a i n ( D , A ) = E n t r o p y ( D ) − ∑ v ∈ V a l u e s ( A ) ∣ D v ∣ ∣ D ∣ E n t r o p y ( D v ) Information \ Gain(D, A) = Entropy(D) - \sum_{v \in Values(A)} \frac{|D_v|}{|D|} Entropy(D_v) Information Gain(D,A)=Entropy(D)vValues(A)DDvEntropy(Dv)
    其中,D是父节点的数据集,A是要划分的特征, V a l u e s ( A ) Values(A) Values(A)是特征A的取值集合, D v D_v Dv是特征A取值为v时的子节点数据集,信息增益的目标是选择使得信息增益最大的特征来进行划分,因为最大的信息增益意味着划分后的子节点更纯净,不确定性更低。因此,信息增益可以帮助决策树选择最能有效地划分数据的特征,从而构建更加有用的决策树模型
    需要注意的是,信息增益在选择特征时有一定的偏向性,它倾向于选择取值较多的特征,因此在某些情况下可能不适用。为了解决这个问题,基尼不纯度(Gini Impurity)是另一种可选的划分准则,它在某些情况下更适用于特征选择。在实际应用中,可以根据具体问题和数据集选择适当的划分准则

6.什么是基尼不纯度

基尼不纯度是一种用于决策树中的划分准则,它用来度量一个节点的不纯度或混乱程度,基尼不纯度越低,表示节点的纯度越高,即该节点包含的样本更倾向于属于同一类别。与信息增益不同,基尼不纯度不依赖于对数,计算相对较为简单。基尼不纯度的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例
G i n i ( t ) = 1 − ∑ i = 1 c ( p i ) 2 Gini(t) = 1 - \sum_{i = 1}^{c} (p_i)^2 Gini(t)=1i=1c(pi)2
其中,c表示类别的数量。基尼不纯度的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高,与信息增益相比,基尼不纯度有一些不同之处:

  1. 计算方式:信息增益使用对数计算,而基尼不纯度使用平方计算。这意味着基尼不纯度对误分类的惩罚相对较小,因此更偏向于选择具有最大基尼不纯度下降的特征
  2. 取值范围:信息增益的取值范围在0到1之间,而基尼不纯度的取值范围也在0到1之间,但通常基尼不纯度的值略高于信息增益
  3. 应用场景:基尼不纯度在某些情况下更适用于特征选择。特别是在处理多分类问题(类别数较多)时,基尼不纯度通常表现更好,因为它偏向于选择取值较少的特征,可以降低树的复杂度

在选择划分特征时,可以根据具体问题和数据集的特点选择使用信息增益或基尼不纯度。通常情况下,它们都是有效的划分准则,但在不同情况下可能表现出不同的优势。机器学习库(如Scikit-Learn)通常提供了两者的选项,以便根据问题需求进行选择

7.决策树与回归问题

决策树是一种用于分类和回归问题的机器学习模型,它们的主要区别在于应用的问题类型和输出变量的性质。

  1. 分类问题:在分类问题中,目标是将输入数据分为预定义的类别或标签中的一个。决策树用于解决分类问题时,每个叶子节点代表一个类别,模型通过从根节点到叶子节点的路径来确定数据点的类别。例如,可以使用决策树来判断电子邮件是垃圾邮件还是正常邮件、患者是否患有某种疾病等
  2. 回归问题:在回归问题中,目标是预测一个连续的数值输出,而不是分类标签。决策树用于解决回归问题时,每个叶子节点代表一个数值,模型通过从根节点到叶子节点的路径来预测数据点的数值输出。例如,可以使用决策树来预测房屋价格、股票价格等连续性输出
  3. 主要区别:主要区别在于输出变量的性质。分类问题的输出是离散的类别标签,而回归问题的输出是连续的数值。决策树的构建和评估方法在两种问题中基本相同,但叶子节点的表示和预测方式不同
  4. 将决策树应用于回归问题:要将决策树应用于回归问题,需要对其进行一些适应性修改

以下是一些将决策树用于回归问题的关键点:

  1. 叶子节点的表示:在回归决策树中,叶子节点不再代表类别标签,而代表数值。通常,叶子节点的数值是该节点中所有训练样本的目标变量值的平均值
  2. 划分准则:在回归决策树中,常用的划分准则包括均方误差(Mean Squared Error)和平均绝对误差(Mean Absolute Error)。划分时选择使均方误差或平均绝对误差最小化的特征和取值
  3. 剪枝:与分类决策树类似,回归决策树也可以进行剪枝操作,以减小树的复杂度,提高泛化能力
  4. 评估指标:在回归问题中,通常使用均方误差、平均绝对误差、决定系数(R-squared)等指标来评估模型的性能

8.随机森林是什么

随机森林(Random Forest)是一种集成学习算法,用于改进单个决策树模型的性能。是一种强大且广泛应用的机器学习方法,随机森林的核心思想是通过构建多个决策树,并将它们的预测结果结合起来,来提高整体模型的性能和鲁棒性,以下是随机森林是如何改进单个决策树模型性能的主要方式

  1. 随机抽样(Bootstrap抽样):在构建每棵决策树时,随机森林从训练数据中使用有放回抽样(Bootstrap抽样)来创建不同的训练子集。这意味着每棵树使用的数据集都是略有不同的,从而增加了模型的多样性
  2. 随机特征选择:在每次分裂决策树节点时,随机森林不考虑所有特征,而是从所有特征中随机选择一个子集用于分裂。这样可以防止某些特征在模型中占据主导地位,增加了模型的多样性,同时也提高了计算效率
  3. 多数投票或平均:当随机森林中的所有决策树都构建完成后,它们的预测结果会被结合起来。对于分类问题,采用多数投票的方式,即每棵树投票选择类别,最终选择得票最多的类别作为模型的预测结果。对于回归问题,采用平均的方式,即将所有树的预测结果取平均值作为最终预测值
  4. 降低过拟合风险:由于随机森林的每个决策树都是在不同的子集上训练的,因此它们具有较高的多样性,降低了过拟合的风险。这意味着即使训练数据中存在噪声或异常值,随机森林也能够产生稳健的预测
  5. 高性能:随机森林通常在处理大规模数据集时表现良好,因为每棵决策树可以并行构建,从而提高了训练速度。此外,它们通常不需要太多的超参数调整,使其易于使用

总的来说,随机森林通过组合多个决策树,利用随机性和投票策略,改进了单个决策树的性能,提高了模型的泛化能力和鲁棒性,适用于各种机器学习任务,包括分类、回归和特征选择

http://www.xdnf.cn/news/742681.html

相关文章:

  • C++23 已弃用特性
  • 前端面试准备-4
  • 细说C语言将格式化输出打印至标准输出流的函数 printf、_printf_l、wprintf、_wprintf_l
  • 第十五篇:MySQL 高级实战项目:构建高可用、可观测、性能优化一体化数据库平台
  • AI预测3D新模型百十个定位预测+胆码预测+去和尾2025年5月31日第94弹
  • 流媒体基础解析:音视频封装格式与传输协议
  • Kafka数据怎么保障不丢失
  • 深拷贝和浅拷贝
  • leetcode77.组合:回溯算法中for循环与状态回退的逻辑艺术
  • tmux基本原理
  • OpenLayers 图形交互编辑
  • Redis最佳实践——安全与稳定性保障之访问控制详解
  • VMware-workstation安装教程--超详细(附带安装包)附带安装CentOS系统教程
  • 【Docker项目实战篇】Docker部署PDF查看器PdfDing
  • Maestro CLI云端测试以及github cl,bitrise原生cl的测试流程
  • Azure DevOps 管道部署系列之二IIS
  • 腾讯面试手撕题:返回行递增有序矩阵第k小的元素
  • 【教学类-36-10】20250531蝴蝶图案描边,最适合大小(一页1图1图、2图图案不同、2图图案相同对称)
  • C++ 重载(Overload)、重写(Override)、隐藏(Hiding) 的区别
  • LiquiGen流体导入UE
  • STM32 HAL库函数学习 CRC篇
  • Linux系统编程之共享内存
  • 在QT中,利用charts库绘制FFT图形
  • MAC软件游戏打开提示已损坏
  • MATLAB实战:机器学习分类回归示例
  • 【MFC】如何设置让exe的控制台不会跟着exe退出而退出
  • C++中指针常量和常量指针的区别
  • 【设计模式-4.6】行为型——状态模式
  • [蓝桥杯]拉马车
  • L56.【LeetCode题解】 电话号码的字母组合