当前位置: 首页 > web >正文

机器学习笔记

目录

决策树模型

决策树 Decision Tree

随机森林 Random Forest

梯度提升决策树 Gradient Boosting Decision Trees

线性模型

回归

分类

Softmax Regression


决策树模型

决策树 Decision Tree

用于分类和回归,通过一系列判断得到最终的结果。

优点:可解释;既能处理数值也能处理特征分类

缺点:不稳定,噪声的影响大(集成学习可以改进);过拟合;不易并行计算;

随机森林 Random Forest

森林:独立地训练几棵决策树,综合几棵决策树的结果来提高结果的稳定性。

随机:1.训练集使用随机采样的方法,如数据集D={1,2,3},训练集A={1,2,3},B={1,1,3};

           2.随机选取部分特征,比如确定一个西瓜好不好吃需要10个特征,我只随机拿5个特征用来训练决策树,从这5个特征中找最优划分特征。

梯度提升决策树 Gradient Boosting Decision Trees

按照顺序来训练多棵决策树;首先训练一棵树,然后用这棵树的结果和实际结果之间的残差来训练下一棵树,相当于一直训练新的树来修正之前的树的结果,最后所有树的结果相加得到最终结果。

线性模型

回归

y = w_1x_1 + w_2x_2+w_3x_3+d

目标:学习w_1,w_2,w_3,d使得均方误差最小。

分类

使用y = w_1x_1 + w_2x_2+w_3x_3+d得到一系列类别的置信度,结果取置信度最大的类别。

目标:使均方误差最小。

问题:我们使结果能够足够明显的被识别出来就行了,不必过于关注别的类别,而这个方法让均方误差最小,相当于想训练一个模型使得正确结果的预测结果就是1,错误结果的预测结果就是0,没必要。

Softmax Regression

标签向量y=[y_1,y_2,y_3,...,y_m],其中y_i =1表示真实的类别是第i类,否则为0。

设模型的输出是分数,用o_i表示,softmax函数把这些分数转化为概率\hat{y_i} = \frac{exp(o_i)}{\Sigma exp(o_k)}

目标:最小化-log(y_{true})y_{true}是指模型预测出的正确的类别的概率。正确类别的概率越接近一越好。

小批量随机梯度下降

几乎可以求解除决策树之外所有的算法模型。

http://www.xdnf.cn/news/18958.html

相关文章:

  • 【C语言】小游戏:关机程序
  • 【Linux 进程】进程程序替换
  • RAG中使用到的相关函数注释——LangChain核心函数
  • AI出题人给出的Java后端面经(二十仨)(不定更)
  • 【AI论文】FutureX:面向未来预测任务中大语言模型智能体的前沿动态基准测试
  • 【科研绘图系列】R语言在海洋生态学中的应用:浮游植物糖类组成与溶解性有机碳的关系
  • 永磁同步电机无速度算法--传统脉振方波注入法(1)
  • LangGraph
  • 【更新至2024年】2000-2024年各地级市绿色专利数据
  • 【lucene】spancontainingquery
  • 主流的 AI Agent 开发框架
  • 矩阵的秩几何含义
  • WPS 智能文档,5分钟上手!
  • 云蝠智能 Voice Agent:多语言交互时代的AI智能语音呼叫
  • 支持向量机(第二十九节课内容总结)
  • JMM 浅析
  • StandardScaler()进行0,1标准化时fit_transform与transform的区别
  • HTML的form表单
  • 子串:和为K的子数组
  • 记一个Mudbus TCP 帮助类
  • from中烟科技翼支付 面试题1
  • 财报出炉,李宁也被“靠边站”了
  • 摄像头模块的技术原理
  • WeakAuras Lua Script (My Version)
  • 【Lua】题目小练11
  • 红黑树下探玄机:C++ setmultiset 的幕后之旅
  • 无线网络中的Duration字段计算:原理、机制与实现
  • 深入了解linux系统—— 线程封装
  • 【prism】Prism 弹窗在 ViewModel 中控制大小的实践总结
  • 视觉工具:文字显示、图像标注与多模板匹配