当前位置: 首页 > java >正文

python:机器学习概述

本文目录:

  • 一、人工智能三大概念
  • 二、学习方式
  • 三、人工智能发展史
    • **1950-1970**
    • **1980-2000**
    • **2010-2017**
    • **2017-至今**
  • 四、机器学习三要素
  • 五、常见术语
  • 六、数据集的划分
  • 七、常见算法分类
  • 八、机器学习的建模流程
  • 九、特征工程
    • 特征工程包括**五大步**:
    • 特征工程的**作用**:
    • 特征工程的**注意事项**:
  • 十、模型拟合问题

一、人工智能三大概念

AL:人工智能,像人一样机器智能的综合与分析;机器模拟人类;
ML:机器学习,让机器自动学习,而不是基于规则的编程(不依赖特定规则编程);
DL:深度学习,也叫深度神经网络,大脑仿生,设计一层一层的神经元模拟万事万物。

三者关系:机器学习是实现人工智能的一种途径,深度学习是机器学习的一种方法。

二、学习方式

基于规则的预测 : 程序员根据经验利用手工的if-else方式进行预测;
基于模型的学习:通过编写机器学习算法,让机器自己学习从历史数据中获得经验、训练模型。

三、人工智能发展史

在这里插入图片描述
1956年被认为是人工智能元年。

“ 1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。”

1950-1970

符号主义流派:专家系统占主导地位

1950:图灵设计国际象棋程序

1962:IBM Arthur Samuel 的跳棋程序战胜人类高手(人工智能第一次浪潮)

1980-2000

统计主义流派:主要用统计模型解决问题

1993:Vapnik提出SVM

1997:IBM 深蓝战胜卡斯帕罗夫(人工智能第二次浪潮)

2010-2017

神经网络、深度学习流派

2012:AlexNet深度学习的开山之作

2016:Google AlphaGO 战胜李世石(人工智能第三次浪潮)

2017-至今

大规模预训练模型

2017年,自然语言处理NLP的Transformer框架出现

2018年,Bert和GPT的出现

2022年,chatGPT的出现,进入到大规模模型AIGC发展的阶段

四、机器学习三要素

数据:是算法的基石和载体;
算法:是实现业务需求的思路和方法;
算力:是算法效率。

数据、算法、算力三要素相互作用,是AI发展的基石。

五、常见术语

样本:一行数据就是一个样本;多个样本组成数据集;有时一条样本被叫成一条记录;

特征:是从数据中抽取出来的,对结果预测有用的信息,有时也被称为属性;

标签/目标:模型要预测的那一列数据。

六、数据集的划分

数据集可划分两部分:训练集、测试集 比例:8 : 2,7 : 3

训练集(training set) :用来训练模型(model)的数据集;

测试集(testing set):用来测试模型的数据集。

七、常见算法分类

在这里插入图片描述
在这里插入图片描述

八、机器学习的建模流程

在这里插入图片描述

九、特征工程

特征工程:利用专业背景知识和技巧处理数据,让机器学习算法效果最好。

数据和特征决定了机器学习的上限,而模型和算法不断逼近这个上限。

特征工程包括五大步

(一)特征提取:从原始数据中提取与任务相关的特征,构成特征向量;
(二)特征预处理:将不同单位的特征数据转换成同一个范围内;
(三)特征降维:将原始数据的维度降低;
(四)特征选择:根据一些指标从特征中选择出一些重要特征;
(五)特征组合:通过乘法、加法等方法把多个的特征合并成单个特征。

特征工程的作用

提升模型性能:让特征更适配算法(如线性模型需要数值特征,树模型可处理类别特征)。

降低计算成本:减少冗余特征,加速训练。

增强可解释性:通过构造有意义的特征帮助理解数据。

特征工程的注意事项

避免数据泄露:所有特征工程(如标准化、编码)应在训练集上拟合后,再应用到测试集。

评估特征效果:通过交叉验证对比工程前后的模型性能。

平衡自动化与领域知识:自动化工具(如FeatureTools)可提高效率,但人工构造的特征往往更关键。

十、模型拟合问题

  • 1.拟合:找到模型参数(如KNN中的 n_neighbors)的最优值,使模型在训练数据上表现良好,同时能泛化到新数据。
  • 2.欠拟合:模型在训练集上表现很差、在测试集表现也很差。
    原因:模型过于简单。
  • 3.过拟合:模型在训练集上表现很好、在测试集表现很差。
    原因:模型太过于复杂、数据不纯、训练数据太少。
  • 泛化:模型在新数据集(非训练数据)上的表现好坏的能力。
    奥卡姆剃刀原则:给定两个具有相同泛化误差的模型,较简单的模型比较复杂的模型更可取。

今天的分享到此结束。

http://www.xdnf.cn/news/8534.html

相关文章:

  • csp备考Day1|string和vector
  • BSDIFF算法详解
  • 2025陕西ICPC邀请赛题解(部分)
  • JVM学习(五)--执行引擎
  • 内容中台的数字化管理核心是什么?
  • 使用Spring Boot和Redis实现高效缓存机制
  • 网络安全给数据工厂带来的挑战
  • 25年软考架构师真题(回忆更新中)
  • 深度学习——超参数调优
  • 前端框架token相关bug,前后端本地联调
  • SGlang 推理模型优化(PD架构分离)
  • 从脑电图和大脑记录中学习稳健的深度视觉表征
  • 【HarmonyOS Next之旅】DevEco Studio使用指南(二十六) -> 创建端云一体化开发工程
  • 廉价却有效?ESD防护中的电容
  • 微前端架构:从单体到模块化的前端新革命
  • 【MySQL系列】 MySQL 中的 TINYINT 类型
  • C/C++STL---<chrono>
  • [SWPUCTF 2021 新生赛]简简单单的解密
  • CDGA|一线二线企业数据治理项目目前发展状况
  • 运维实施36-逻辑卷管理 (LVM)
  • 【国产OS】国产麒麟OS部署个人方法汇总
  • VirtualBox 4.3.10 经典版安装教程 - Windows 7/10 下载与设置指南
  • GESP编程等级认证C++三级8-字符串1
  • 【Day34】
  • 一文详解 HLS
  • siparmyknife:SIP协议渗透测试的瑞士军刀!全参数详细教程!Kali Linux教程!
  • Python 训练营打卡 Day 33
  • AI浪潮下,媒体内容运营的五重变奏
  • 安卓新建项目时,Gradle下载慢下载如何用国内的镜像
  • 什么是Express