当前位置: 首页 > news >正文

【机器学习基础】机器学习入门核心算法:XGBoost 和 LightGBM

在这里插入图片描述

机器学习入门核心算法:XGBoost 和 LightGBM

      • 一、算法逻辑
        • XGBoost (eXtreme Gradient Boosting)
        • LightGBM (Light Gradient Boosting Machine)
      • 二、算法原理与数学推导
        • 目标函数(二者通用)
        • 二阶泰勒展开:
        • XGBoost 分裂点增益计算:
        • LightGBM 直方图加速:
      • 三、模型评估
        • 常用评估指标:
        • 过拟合控制:
      • 四、应用案例
        • XGBoost 典型场景:
        • LightGBM 典型场景:
      • 五、面试题及答案
        • 常见问题:
      • 六、相关论文
      • 七、优缺点对比
      • 总结

一、算法逻辑

XGBoost (eXtreme Gradient Boosting)
  • 核心思想
    基于梯度提升框架(Gradient Boosting),通过迭代添加弱学习器(CART树)优化损失函数,支持正则化防止过拟合。
  • 关键优化
    • 预排序(Pre-sorted):对特征值预先排序并存储为块结构,加速分裂点查找。
    • 加权分位数草图(Weighted Quantile Sketch):近似算法高效生成候选分裂点。
LightGBM (Light Gradient Boosting Machine)
  • 核心思想
    针对XGBoost计算效率瓶颈改进,核心是 直方图算法(Histogram-based)生长策略优化
  • 关键创新
    • Gradient-based One-Side Sampling (GOSS):保留大梯度样本,随机采样小梯度样本。
    • Exclusive Feature Bundling (EFB):互斥特征捆绑,减少特征维度。
    • Leaf-wise 生长策略:选择增益最大叶子分裂,提升精度但可能加深树深。

二、算法原理与数学推导

目标函数(二者通用)

t t t 次迭代的目标函数:
O b j ( t ) = ∑ i = 1 n L ( y i , y ^ i ( t − 1 ) + f t ( x i ) ) + Ω ( f t ) Obj^{(t)} = \sum_{i=1}^{n} L(y_i, \hat{y}_i^{(t-1)} + f_t(x_i)) + \Omega(f_t) Obj(t)=i=1nL(yi,y^i(t1)+ft(xi))+Ω(ft)
其中正则项 Ω ( f t ) = γ T + 1 2 λ ∥ w ∥ 2 \Omega(f_t) = \gamma T + \frac{1}{2}\lambda \|w\|^2 Ω(ft)=γT+21λw2 T T T为叶子数, w w w为叶子权重)。

二阶泰勒展开:

O b j ( t ) ≈ ∑ i = 1 n [ L ( y i , y ^ ( t − 1 ) ) + g i f t ( x i ) + 1 2 h i f t 2 ( x i ) ] + Ω ( f t ) Obj^{(t)} \approx \sum_{i=1}^{n} \left[ L(y_i, \hat{y}^{(t-1)}) + g_i f_t(x_i) + \frac{1}{2} h_i f_t^2(x_i) \right] + \Omega(f_t) Obj(t)i=1n[L(yi,y^(t1))+gift(xi)+21hift2(xi)]+Ω(ft)
其中 g i = ∂ y ^ ( t − 1 ) L ( y i , y ^ ( t − 1 ) ) g_i = \partial_{\hat{y}^{(t-1)}} L(y_i, \hat{y}^{(t-1)}) gi=y^(t1)L(yi,y^(t1)), h i = ∂ y ^ ( t − 1 ) 2 L ( y i , y ^ ( t − 1 ) ) h_i = \partial_{\hat{y}^{(t-1)}}^2 L(y_i, \hat{y}^{(t-1)}) hi=y^(t1)2L(yi,y^(t1))

XGBoost 分裂点增益计算:

G a i n = 1 2 [ ( ∑ i ∈ I L g i ) 2 ∑ i ∈ I L h i + λ + ( ∑ i ∈ I R g i ) 2 ∑ i ∈ I R h i + λ − ( ∑ i ∈ I g i ) 2 ∑ i ∈ I h i + λ ] − γ Gain = \frac{1}{2} \left[ \frac{(\sum_{i \in I_L} g_i)^2}{\sum_{i \in I_L} h_i + \lambda} + \frac{(\sum_{i \in I_R} g_i)^2}{\sum_{i \in I_R} h_i + \lambda} - \frac{(\sum_{i \in I} g_i)^2}{\sum_{i \in I} h_i + \lambda} \right] - \gamma Gain=21[iILhi+λ(iILgi)2+iIRhi+λ(iIRgi)2iIhi+λ(iIgi)2]γ
I L , I R I_L, I_R IL,IR 为分裂后左右子节点样本集。

LightGBM 直方图加速:
  • 将连续特征离散化为 k k k 个桶(默认256),生成直方图。
  • 分裂时遍历直方图桶,计算增益:
    G a i n = max ⁡ j ∈ [ 1 , k ] ( ( ∑ i ∈ B l e f t j g i ) 2 ∑ i ∈ B l e f t j h i + λ + ( ∑ i ∈ B r i g h t j g i ) 2 ∑ i ∈ B r i g h t j h i + λ ) Gain = \max_{j \in [1,k]} \left( \frac{(\sum_{i \in B_{left}^j} g_i)^2}{\sum_{i \in B_{left}^j} h_i + \lambda} + \frac{(\sum_{i \in B_{right}^j} g_i)^2}{\sum_{i \in B_{right}^j} h_i + \lambda} \right) Gain=j[1,k]max(iBleftjhi+λ(iBleftjgi)2+iBrightjhi+λ(iBrightjgi)2)
    其中 B l e f t j B_{left}^j Bleftj B r i g h t j B_{right}^j Brightj 为按桶 j j j 分裂的样本子集。

三、模型评估

常用评估指标:
任务类型指标
分类AUC, F1-Score, 准确率
回归RMSE, MAE, R-squared
排序NDCG, MAP
过拟合控制:
  • XGBoostgamma(分裂阈值)、lambda(L2正则)、subsample(样本采样)。
  • LightGBMmin_data_in_leaffeature_fraction(特征采样)、lambda_l1/l2

四、应用案例

XGBoost 典型场景:
  1. Kaggle竞赛:2015-2016年多数表格数据竞赛冠军方案。
  2. 金融风控:预测贷款违约概率(如Lending Club数据集)。
LightGBM 典型场景:
  1. 大规模数据:腾讯广告点击率预测(十亿级样本)。
  2. 高维特征:推荐系统特征工程(EFB减少特征维度)。

五、面试题及答案

常见问题:
  1. Q: XGBoost 为什么用二阶导数?
    A: 二阶导提供损失函数的曲率信息,比一阶导更精准定位最优解,加速收敛。

  2. Q: LightGBM 的 Leaf-wise 为什么更快但可能过拟合?
    A: Leaf-wise 减少不必要的分裂(对比 Level-wise),但树深度可能更大,需通过 max_depthmin_data_in_leaf 约束。

  3. Q: 直方图算法的缺点?
    A: 离散化引入误差,桶数量少时精度下降(精度与效率权衡)。


六、相关论文

  1. XGBoost
    Chen & Guestrin, 2016. “XGBoost: A Scalable Tree Boosting System”
    Key: 分布式加权分位数草图、稀疏感知算法。

  2. LightGBM
    Ke et al., 2017. “LightGBM: A Highly Efficient Gradient Boosting Decision Tree”
    Key: GOSS 样本采样、EFB 特征捆绑、直方图优化。


七、优缺点对比

算法优点缺点
XGBoost1. 精度高,正则化强;
2. 支持自定义损失函数;
3. 树结构可解释性好。
1. 内存消耗大(预排序);
2. 训练速度较慢。
LightGBM1. 训练速度快3~5倍;
2. 内存占用低;
3. 支持大规模数据并行。
1. 小数据集易过拟合;
2. 离散化可能损失精度。

总结

  • XGBoost:精度优先,适合中小规模数据、需强正则化的场景。
  • LightGBM:效率优先,适合大规模数据、高维特征、实时性要求高的场景。
    两者均属于GBDT优化框架,选择需权衡数据规模、特征维度与精度要求。
http://www.xdnf.cn/news/742969.html

相关文章:

  • 江科大IIC读取MPU6050hal库实现
  • C++中 newdelete 与 mallocfree 的异同详解
  • 【深度学习】14. DL在CV中的应用章:目标检测: R-CNN, Fast R-CNN, Faster R-CNN, MASK R-CNN
  • 【Linux 学习计划】-- 进程地址空间
  • 使用 Let‘s Encrypt 和 Certbot 为 Cloudflare 托管的域名申请 SSL 证书
  • Reactor 和 Preactor
  • LeetCode - 876. 链表的中间结点
  • Mybatis Plus JSqlParser解析sql语句及JSqlParser安装步骤
  • 第六十二节:深度学习-加载 TensorFlow/PyTorch/Caffe 模型
  • 【HW系列】—溯源与定位—Linux入侵排查
  • day07
  • c/c++的opencv车牌识别
  • vscode不满足先决条件问题的解决——vscode的老版本安装与禁止更新(附安装包)
  • 5.2 初识Spark Streaming
  • 进程间通信IV System V 系列(linux)
  • 机器学习与深度学习06-决策树02
  • C++23 已弃用特性
  • 前端面试准备-4
  • 细说C语言将格式化输出打印至标准输出流的函数 printf、_printf_l、wprintf、_wprintf_l
  • 第十五篇:MySQL 高级实战项目:构建高可用、可观测、性能优化一体化数据库平台
  • AI预测3D新模型百十个定位预测+胆码预测+去和尾2025年5月31日第94弹
  • 流媒体基础解析:音视频封装格式与传输协议
  • Kafka数据怎么保障不丢失
  • 深拷贝和浅拷贝
  • leetcode77.组合:回溯算法中for循环与状态回退的逻辑艺术
  • tmux基本原理
  • OpenLayers 图形交互编辑
  • Redis最佳实践——安全与稳定性保障之访问控制详解
  • VMware-workstation安装教程--超详细(附带安装包)附带安装CentOS系统教程
  • 【Docker项目实战篇】Docker部署PDF查看器PdfDing