当前位置: 首页 > news >正文

【学习笔记】机器学习(Machine Learning) | 第七章|神经网络(1)

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源


文章目录

  • 机器学习(Machine Learning)
    • 简要声明
  • 机器学习之深度学习神经网络入门
    • 一、神经网络的起源与发展
    • 二、神经元模型
      • (一)生物神经元与数学模型对比
      • (二)数学模型示例
    • 三、神经网络性能与数据量、硬件的关系
    • 四、神经网络架构
      • (一)基本架构
      • (二)多层隐藏层


机器学习之深度学习神经网络入门

在人工智能技术浪潮席卷全球的今天,深度学习神经网络作为其核心驱动力,正以前所未有的速度重塑各行业格局。本文将以学习笔记的视角,系统梳理神经网络的基础概念与核心架构,为深入探索深度学习打下坚实基础。

一、神经网络的起源与发展

神经网络的理论雏形可追溯至 1943 年 McCulloch 和 Pitts 提出的MP 神经元模型,该模型首次将生物神经元的工作机制抽象为数学计算单元。在 20 世纪 80 年代,反向传播算法(Backpropagation)的提出推动神经网络进入第一次发展高峰,在光学字符识别(OCR)等领域取得显著成果。但受制于当时有限的计算资源和梯度消失问题,90 年代后期神经网络逐渐陷入发展瓶颈。

转折点出现在 2006 年,Hinton 等人提出深度信念网络(DBN)和预训练 - 微调策略,结合 GPU 算力的爆发式增长,神经网络迎来复兴。如今,基于 Transformer 架构的大语言模型(如 GPT 系列)、计算机视觉领域的卷积神经网络(CNN),以及自动驾驶中的端到端神经网络系统,都印证了其强大的泛化能力与应用潜力。

二、神经元模型

(一)生物神经元与数学模型对比

对比维度生物神经元数学神经元模型
结构特征由树突(接收信号)、细胞体(整合信号)、轴突(输出信号)构成由权重矩阵、偏置向量和激活函数组成计算单元
信号传输通过电信号与化学递质传递脉冲信号通过矩阵乘法和非线性变换传递数值信号
信息处理非线性加权求和并阈值化输出通过 z = ∑ i = 1 n w i x i + b z = \sum_{i=1}^{n}w_ix_i + b z=i=1nwixi+b 计算加权和,再经激活函数处理

(二)数学模型示例

以电商平台商品需求预测为例,构建单神经元模型:

输入层:接收商品价格 x x x(如 x = 99 x = 99 x=99 元)

计算过程

加权求和: z = w x + b z = wx + b z=wx+b,假设 w = 0.3 w = 0.3 w=0.3 b = − 5 b = -5 b=5,则 z = 0.3 × 99 − 5 = 24.7 z = 0.3 \times 99 - 5 = 24.7 z=0.3×995=24.7

激活函数:采用 sigmoid 函数 a = 1 1 + e − z = 1 1 + e − 24.7 ≈ 1 a = \frac{1}{1 + e^{-z}} = \frac{1}{1 + e^{-24.7}} \approx 1 a=1+ez1=1+e24.711

输出层:输出值 a a a 代表商品成为爆款的概率(接近 1 表明高可能性)

该过程通过调整权重 w w w 和偏置 b b b(训练过程),使模型预测与实际销售数据匹配,从而实现需求预测。

三、神经网络性能与数据量、硬件的关系

模型类型数据需求特征性能曲线特点典型应用场景
传统 AI 算法依赖人工特征工程,数据规模 < 1 万条线性增长后趋于饱和规则明确的结构化数据处理
小型神经网络数据规模 1 万 - 10 万条初期提升快,后期出现过拟合简单图像分类(MNIST 数据集)
中型神经网络数据规模 10 万 - 100 万条保持稳定性能提升医疗影像辅助诊断
大型神经网络数据规模 > 100 万条呈指数级性能提升自然语言处理(BERT 模型)

硬件层面,GPU 的并行计算能力使神经网络训练效率提升数百倍。以 ResNet - 50 模型为例,在 CPU 上训练 ImageNet 数据集需耗时数周,而使用 NVIDIA A100 GPU 仅需 1 - 2 天。

四、神经网络架构

(一)基本架构

输入层: 商品特征
价格/销量/评价
隐藏层1: 特征提取
性价比/竞争力
隐藏层2: 语义理解
市场潜力
输出层: 预测结果
未来销量

每个神经元通过连接权重与下一层交互,如输入层到隐藏层的连接可表示为:

[ a 1 ( 1 ) a 2 ( 1 ) ] = [ σ ( w 11 ( 0 ) x 1 + w 12 ( 0 ) x 2 + b 1 ( 0 ) ) σ ( w 21 ( 0 ) x 1 + w 22 ( 0 ) x 2 + b 2 ( 0 ) ) ] \begin{bmatrix} a_1^{(1)} \\ a_2^{(1)} \\ \end{bmatrix} = \begin{bmatrix} \sigma(w_{11}^{(0)}x_1 + w_{12}^{(0)}x_2 + b_1^{(0)}) \\ \sigma(w_{21}^{(0)}x_1 + w_{22}^{(0)}x_2 + b_2^{(0)}) \\ \end{bmatrix} [a1(1)a2(1)]=[σ(w11(0)x1+w12(0)x2+b1(0))σ(w21(0)x1+w22(0)x2+b2(0))]

其中, σ \sigma σ 为激活函数, w ( l ) w^{(l)} w(l) 为第 l l l 层权重, b ( l ) b^{(l)} b(l) 为偏置。
在这里插入图片描述

(二)多层隐藏层

随着隐藏层增加,网络表达能力呈指数级增长:

2 层隐藏层:可拟合复杂非线性边界,如手写数字识别

3 - 5 层隐藏层:适用于图像语义分析(识别图片中的多物体)

10 层以上:在 Transformer 架构中实现长距离依赖建模(如机器翻译)

但层数增加会引入梯度消失 / 爆炸问题,需通过残差连接(Residual Connection)、批量归一化(Batch Normalization)等技术优化。

深度学习神经网络通过模拟人类大脑的信息处理机制,在理论与实践的双重驱动下不断进化。后续学习将聚焦于网络训练的优化算法(如 Adam、Adagrad)、正则化技术(Dropout、L1/L2 范数)以及经典网络架构(CNN、RNN、Transformer)的具体实现,进一步解锁其在复杂任务中的应用潜力。


continue…

http://www.xdnf.cn/news/481717.html

相关文章:

  • Vue3中setup运行时机介绍
  • MyBatis—动态 SQL
  • 网安面试经(1)
  • MySQL8.x新特性:与mysql5.x的版本区别
  • SpringBoot--Bean管理详解
  • 3D生成新突破:阶跃星辰Step1X-3D开源,可控性大幅提升
  • python + flask 做一个图床
  • ThinkPad X250电池换电池芯(理论技术储备)
  • windows系统中下载好node无法使用npm
  • STM32控制电机
  • duxapp 2025-03-29 更新 编译结束的复制逻辑等
  • MySQL的触发器
  • ubuntu 20.04 更改国内镜像源-阿里源 确保可用
  • 适合学校使用的桌面信息看板,具有倒计时、桌面时钟、课程表、天气预报、自动新闻联播、定时关机、消息通知栏、随机点名等功能。
  • CMU-15445(4)——PROJECT#1-BufferPoolManager-Task#2
  • 【软件工程】符号执行与约束求解缺陷检测方法
  • MySQL性能优化
  • RAG-MCP:基于检索增强生成的大模型工具选择优化框架
  • Cross-Site Scripting(XSS)
  • AT9850B—单北斗导航定位芯片
  • 【leetcode】94. 二叉树的中序遍历
  • 逻辑回归(二分类)
  • Linux的日志管理
  • 青少年ctf平台应急响应-应急响应2
  • 在vue3中使用Cesium的保姆教程
  • 【2025年软考中级】第一章1.5 输入输出技术(外设)
  • 代码随想录第51天|岛屿数量(深搜)、岛屿数量(广搜)、岛屿的最大面积
  • 2025年Ai写PPT工具推荐,这5款Ai工具可以一键生成专业PPT
  • Java—— 方法引用 : :
  • 【第76例】IPD流程实战:华为业务流程架构BPA进化的4个阶段