当前位置: 首页 > ds >正文

人工智能学习:机器学习相关面试题(二)

7、有监督学习和无监督学习的区别

有监督学习:

        对具有概念标记(分类)的训练样本进行 学习,以尽可能对训练样本集外的数据进 标记(分类)预测。   ,所有的标记(分类)是已知的。 因此 ,训练样本的岐义性低。监督学习中只要输 样本集,机器就可以从中推演出 制定标变量的可能结果.如协同过滤推荐算法,通过对训练集进 监督学习,并对测试集进预测,从 达到预测的 的.

监督学习: 

        对没有概念标记(分类) 的训练样本进 学习, 以发现训练样本集中的结构性知识。这 所有的标记 (分类)是未知的。 因此 ,训练样本的岐义性。聚类就是典型的无监督学习。监督学习的典型例 就是决策树、神经以及疾病监测, 而无 监督学习就是很早之前的西 洋双陆棋和聚类。

8、有了解过哪些机器学习的算法?

问题分析:

        考官主要考察的是学员是否对于人工 智能方面 的感兴趣 ,是否有空闲时间了解过机器学习算法这方面 的知 ,有则更好。

答案讲解:

        学员需要根据自己 的实际情况去回答 ,学员也可以自己 课下空余的时间去掌握 两常的机器学习算法,以此来增  的筹码。

决策树模型:

构建决策树三要素

1、特征选择

信息熵---信息增益---信息增益

H(x) = -sum(pi*log(pi))

Gain(A) =Info(D)-Info_A(D)

43Gini Gini系数是对信息熵关于ln(x)在x =0处的 阶泰勒展开近似得到是信息GIni系数

2、决策树的构成

ID3算法:

算法输:特征和样本构成的数据集

算法输出: ID3的决策树

算法步骤:

(1)如果所有的属性都被处理完毕

(2)计算各个节点的信息增益 ,选择最的信息增益所代表的特征构建决策树(信息熵--sum(pi*log(pi)))

(3)如果上述的属性没有处理完毕 ,需要从剩余的属性中继续获取其他的信息增益较的值对应的特征。

(4)递归构建决策树算法模型算法优化

选择信息增益率--C4.5算法算法的停 迭代条件:

(1)迭代次数

(2)树的深度

(3)树的叶 节点的个数

(4)树的分 节点含有样本的个数

(5)树的最 不纯度的下降

(Cart树---gini系数)

3、决策树剪枝

先剪枝

后剪枝

问题扩展:

        在算法的推导过程中 ,会 量的使到数学的推导公式,  数学思想对于程序员来说是必不可缺的 种思想 ,可以 在讲解的时候 ,概括性的给学员讲 下数学的相关知识。

        信息熵数学公式(sum(pi*log(pi)))+信息增益数学公式(总体的信息熵-以A节点作为划分节点的信息熵)

结合项中使用:

        此问题在项目 中是没有什么体现的,  试官就是想考察  试者本身具有的学习能 以此来评估该试者的可 培养价值 ,以及潜。但是机器学习算法在推荐系统 中、以后数据挖掘 作中会起到 关重要作 

9、你对LR是怎么理解的? LR的损失函数是怎样的?

先,LR是逻辑斯特回归 ,是分类算法。

        LR的原理是在线性回归的基础上增加  线性函数 ,这里 用 的是sigmod函数 ,得到的结果是以概率的形式输出类别的结果。

        LR的损失函数是似然函数 ,似然函数的log对数的形式 ,得到是交叉熵损失 ,对应的是分类中最重要交叉熵损失函数。

        交叉熵损失和其他的损失函数区别就在于交叉熵损失是定义在概率分布基础上的, 它通常是被于基于多项式的逻辑斯 特回归和神经 络中 ,还有 EM算法中。对数损失是来度量分类器的预测输出的概率分布和真是分布的差距,  不是 较离散类标签是否相等。

10、二分类模型如何做多分类?

        决策树中ID3和C4.5算法都是可以解决多分类问题 logisticModelSVM只能解决 分类问题,如何将二分类问题拓展到多分类上 ,使 法有两种:

Ovo-One vs one :通过将任意两个分类的组合形式来进 多分类

Ovr-One vs rest: C( n,2)f分类结果

scikit-learn: machine learning in Python

11、KMeans算法和KNN算法区别?

KMeans算法是聚类的算法, KNN 个分类算法

        KNN是通过K值设定最近邻的个数,通过当前样本点到各个点之间的距离的求解,通过少数服从多数的投票原则划分当前样本点

        KMeans通过K值设定有 个聚类中,通过将各个样本点到聚类中的距离 ,将离中 点最 距离的样本 组合 ,从   将样本点分成不同的簇 ,通过均值的 法迭代聚类,直到迭代次数或mse误差或聚类 不在改变停 迭代。

12、请问GBDT和XGBoost的区别是什么?

        XGBoost类似于GBDT的优化版 ,不论是精度还是效率上都有了提升。与GBDT ,具体的优点有:

        损失函数是用 泰勒展式 项逼近  不是像GBDT的就是阶导数;对树的结构进了正则化约束 ,防模型过度复 杂, 降低了过拟合的可能性;节点分裂的 式不同, GBDT的基尼系数 XGBoost是经过优化推导后的分裂增益。

http://www.xdnf.cn/news/19588.html

相关文章:

  • MySQL-视图与用户管理
  • Langchain指南-关键特性:如何流式传输可运行项
  • 如何解决pip安装报错ModuleNotFoundError: No module named ‘SQLModel’问题
  • 案例——从零开始搭建 ASP.NET Core 健康检查实例
  • 齿轮加工刀具材料漫谈:从高速钢到陶瓷的 “切削艺术”
  • 传统数据库out啦!KINGBASE ES V9R1C10 开启国产数据库“修仙”新纪元!
  • Day19_【机器学习—线性回归 (2)】
  • 正则表达式 Python re 库完整教程
  • 生存分析入门教程
  • 馈电油耗讲解
  • AssemblyLoadContext`的插件化架构
  • Qt libcurl的下载、配置及简单测试 (windows环境)
  • springboot项目启动时打印maven打包时间
  • [Mysql数据库] 知识点总结8
  • 计算机网络:(十六)TCP 的运输连接管理
  • Ring Buffer解析
  • 仓颉语言Web框架中的路由分组
  • linux系统学习(6.软件包管理)
  • 十分钟快速掌握 YML YAML 文件
  • 07.《交换机三层功能、单臂路由与端口安全基础知识》
  • 在Linux环境安装Maven(保姆级别)
  • leetcode 面试题 01.01.判定字符是否唯一
  • 【高级】系统架构师 | 信息系统基础
  • 基于Seurat的空转单样本数据分析流程学习(一)
  • JavaScript中的XMLHttpRequest对象分析
  • 基于单片机智能保温杯/智能水杯
  • Java基础第7天总结(代码块、内部类、函数式编程)
  • 【多模态】使用LLM生成html图表
  • 打开多个Excel文件后快速关闭所有的文档,并且退出Excel应用
  • s[:] = reversed(s) 和 s = reversed(s)的区别