当前位置: 首页 > news >正文

第二十七课:手搓梯度提升树

🌳 Python实现梯度提升树(GBDT):让决策树"代代进化"的魔法

梯度提升树就像一群小树苗在接力成长,每棵新树都专注于前辈们犯过的错误,最终长成一片预测能力强大的森林。下面我用Python展示这个强大的算法。

🧰 准备工具包

from sklearn.ensemble import GradientBoostingRegressor  # 回归问题用
from sklearn.ensemble import GradientBoostingClassifier  # 分类问题用
from sklearn.datasets import make_regression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, accuracy_score
import numpy as np
import matplotlib.pyplot as plt

🌲 梯度提升树四步曲

1. 创建模拟数据(回归问题示例)

# 生成一个有噪声的波浪形数据集
np.random.seed(42)
X = np.linspace(0, 10, 100).reshape(-1, 1)
y = np.sin(X).ravel() + np.random.normal(0, 0.1, X.shape[0])# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)plt.scatter(X_train, y_train, label='训练数据')
plt.title("原始数据")
plt.legend()
plt.show()

2. 训练GBDT模型

# 创建梯度提升树回归器
gbr = GradientBoostingRegressor(n_estimators=100,  # 100棵小树learning_rate=0.1, # 学习率max_depth=3,       # 每棵树的最大深度min_samples_split=2, random_state=42
)# 训练模型
gbr.fit(X_train, y_train)# 预测
y_pred = gbr.predict(X_test)# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
print(f"测试集均方误差(MSE): {mse:.4f}")

3. 可视化预测效果

# 生成预测线
X_plot = np.linspace(0, 10, 1000).reshape(-1, 1)
y_plot = gbr.predict(X_plot)plt.scatter(X_train, y_train, label='训练数据')
plt.plot(X_plot, y_plot, color='red', linewidth=2, label='GBDT预测')
plt.title("梯度提升树回归效果")
plt.legend()
plt.show()

4. 查看训练过程(分类问题示例)

# 创建分类数据集
from sklearn.datasets import make_classification
X_clf, y_clf = make_classification(n_samples=1000, n_features=10, n_classes=2, random_state=42)# 分割数据
X_train_clf, X_test_clf, y_train_clf, y_test_clf = train_test_split(X_clf, y_clf, test_size=0.2, random_state=42)# 训练分类器
gbc = GradientBoostingClassifier(n_estimators=100, random_state=42)
gbc.fit(X_train_clf, y_train_clf)# 查看训练过程中准确率的变化
test_acc = [accuracy_score(y_test_clf, y_pred) for y_pred in gbc.staged_predict(X_test_clf)]plt.plot(range(1, 101), test_acc)
plt.xlabel("树的数量")
plt.ylabel("测试集准确率")
plt.title("GBDT分类器学习曲线")
plt.show()

🍎 通俗例子:预测水果价格

假设我们有3天的水果销售数据:

天数天气(1-5)周末(0/1)实际价格
13010元
25115元
3208元

GBDT的工作流程

  1. 第一棵树(基础模型):
    • 简单预测:所有水果均价11元
    • 残差(误差):[-1, +4, -3](实际-预测)
  2. 第二棵树
    • 学习目标:预测第一棵树的残差
    • 发现规则:如果是周末 → +3.5元,否则 → -2元
    • 新预测:11 + 3.5 = 14.5(周末), 11 - 2 = 9(非周末)
    • 新残差:[-1, +0.5, -1]
  3. 第三棵树
    • 继续学习剩余残差
    • 发现规则:好天气(>4) → +0.3元
    • 最终预测变得更为精准
  4. 最终预测
    • 综合所有树的预测结果
    • 例如第2天预测值 = 11 + 3.5 + 0.3 = 14.8元(接近实际15元)

💡 核心特点

  1. 残差学习:每棵树都试图修正前一棵树的错误,像不断改进的草稿
  2. 可调参数
    • learning_rate:控制每棵树的贡献(小步慢走更稳健)
    • n_estimators:树的数量(太多可能过拟合)
    • max_depth:每棵树的复杂度(通常3-5层足够)
  3. 适用广泛
    • 回归问题(预测房价)
    • 分类问题(判断邮件是否垃圾邮件)
    • 排序问题(搜索结果的排序)

记住:梯度提升树就像一群互相帮助的学生,每个新学生都特别关注班上做错题的同学,最终全班成绩越来越好!

http://www.xdnf.cn/news/927991.html

相关文章:

  • AI掘金时代:探讨如何用价值杠杆撬动付费用户增长
  • 记录下three.js学习过程中不理解问题①
  • 测试(面经 八股)
  • 《真假信号》速读笔记
  • Python爬虫实战:研究Unirest库相关技术
  • 王劲松《人民日报》撰文 重读抗战家书不忘来时路
  • Windows小说阅读软件推荐
  • Linux 文件系统核心:inode 与 block 深度解析(附实战案例与源码级原理)
  • 618来了,推荐京东云服务器
  • ROS C++ 实现消息通信与服务通信
  • 交叉熵损失函数和极大似然估计是什么,区别是什么
  • 关于队列的使用
  • 道路运输安全员考试分为哪些科目,各科目重点考察什么?
  • scratch农场小鸡 2024年全国青少年信息素养大赛 图形化编程 scratch变成挑战赛 复赛真题解析
  • string类型
  • Spring IoC 模块设计文档
  • libiec61850 mms协议异步模式
  • 如何构建船舵舵角和船的航向之间的动力学方程?它是一个一阶惯性环节吗?
  • 抖音怎么下载视频
  • 好未来0520上机考试题1:括号的最大嵌入深度
  • 零基础入门PCB设计 强化篇 第六章(实验——USB拓展坞PCB绘制)
  • Spring注解原理深度解析:从入门到精通
  • 免费 SecureCRT8.3下载、安装、注册、使用与设置
  • c++11线程安全
  • 图片批量格式转换工具
  • pcie 日常问答0604
  • 第一章 无刷电机(BLDC)基础知识
  • 缓冲区溢出
  • 【web笔记】JavaScript实现有动画效果的进度条
  • opencascade 小技巧截取两点间的曲线