当前位置: 首页 > news >正文

从代码学习深度学习 - 小批量随机梯度下降 PyTorch 版

文章目录

  • 前言
  • 一、数据准备与处理
    • 1.1 数据集简介
    • 1.2 数据加载与预处理
  • 二、训练工具与辅助类
  • 三、可视化工具
  • 四、模型训练
  • 五、执行训练
  • 总结


前言

深度学习是人工智能领域的核心技术之一,而小批量随机梯度下降(Mini-Batch Stochastic Gradient Descent, SGD)是训练神经网络的基石算法。本文将通过一个完整的 PyTorch 实现,带你深入理解小批量 SGD 的工作原理。我们以 NASA 的 Airfoil Self-Noise Dataset 为例,展示如何使用 PyTorch 构建数据加载器、定义模型、训练神经网络,并可视化训练过程。

小批量随机梯度下降公式:在这里插入图片描述

本文的目标是通过代码逐步解析深度学习的核心组件,帮助初学者从实践中掌握理论知识。所有代码均来自附件,涵盖数据处理、训练工具、可视化工具和主训练逻辑。让我们开始吧!

完整代码:下载链接

一、数据准备与处理

1.1 数据集简介

我们使用的是 Airfoil Self-Noise Dataset,一个用于回归任务的经典数据集,来自 UCI 机器学习库。它包含 1503 条记录,每条记录有 5 个输入特征和 1 个目标变量(缩放后的声压级,单位为分贝)。特征包括:

  • 声音频率(Frequency, Hz)
  • 攻角(Angle of attack, degrees)
  • 翼弦长度(Chord length, m)
  • 来流速度(Free-stream velocity, m/s)
  • 吸力面位移厚度(Suction side displacement thickness, m)

目标是预测给定气动参数下的声压级。

1.2 数据加载与预处理

以下代码(utils_for_data.py)实现了数据加载和预处理逻辑。它从 airfoil_self_noise.dat 文件中读取数据,进行标准化处理,并构造 PyTorch 数据迭代器。

import torch
from torch.utils import data
from torch.utils.data import TensorDataset, DataLoader
import numpy as npdef load_array(data_arrays, batch_size, is_train=True):"""构造一个PyTorch数据迭代器参数:data_arrays (tuple of tensors): 包含特征和标签的张量,通常为 (X, y),其中X 维度: (样本数, 特征数)y 维度: (样本数, 1) 或 (样本数,)batch_size (int): 批量大小,决定每次迭代返回的样本数量is_train (bool): 是否为训练模式,若为True则打乱数据返回:DataLoader: PyTorch数据加载器,每次迭代返回一个批次,批次中的X维度: (batch_size, 特征数)批次中的y维度: (batch_size, 1) 或 (batch_size,)"""dataset = data.TensorDataset(*data_arrays)  # 创建数据集,将多个张量组合成一个数据集return data.DataLoader(dataset, batch_size, shuffle=is_train)  # 返回数据加载器,控制批次大小和是否打乱def get_data(batch_size=10, n=1500):"""获取气动翼型自噪声数据集并构造数据迭代器参数:batch_size (int): 批量大小n (int): 使用的样本数量,默认为1500返回:data_iter: 数据迭代器,每次返回一个批次的数据input_size: 特征维度数量"""# 从本地文件加载数据,维度: (总样本数, 特征数+1)data = np.genfromtxt('airfoil_self_noise.dat', dtype=np.float32, delimiter='\t')# 数据标准化处理,维度保持: (总样本数, 特征数+1)data = torch.from_numpy((data - data.mean(axis=0)) / data.std(axis=0))# 构造数据迭代器# data[:n, :-1] 维度: (n, 特征数),选取前n个样本的所有特征# data[:n, -1] 维度: (n,),选取前n个样本的标签data_iter = load_array((data[:n, :-1], data[:n, -1]),batch_size, is_train=True)# 返回数据迭代器和特征维度# data.shape[1]-1 为特征数量(减去标签列)return data_iter, data.shape[1]-1

代码解析

  • load_array:将特征和标签张量封装成 TensorDataset,并通过 DataLoader 提供批量数据加载功能,支持训练时的随机打乱。
  • get_data:加载数据集,标准化数据(零均值、单位方差),并返回数据迭代器和特征维度(5)。

二、训练工具与辅助类

为了支持训练过程,我们需要一些辅助工具,包括计时器、累加器、GPU 检查函数和损失评估函数。这些工具定义在 utils_for_train.py 中。

import time
import torch
import torch.nn as nn
import numpy as np
import utils_for_huitu  # 这个是你自己的工具包class Timer:"""记录多次运行时间"""def __init__(self):"""Defined in :numref:`subsec_linear_model`"""self.times = []self.start()def start(self):"""启动计时器"""self.tik = time.time()def stop(self):"""停止计时器并将时间记录在列表中"""self.times.append(time.time() - self.tik)return self.times[-1]def
http://www.xdnf.cn/news/6679.html

相关文章:

  • Spring Boot启动流程深度解析:从main()到应用就绪的完整旅程
  • Starrocks 数据均衡DiskAndTabletLoadReBalancer的实现
  • 使用Lean 4和C#进行数学定理证明与逻辑推理
  • RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库
  • edge browser for linux debian
  • 23种设计模式-创建型模式之建造者模式(Java版本)
  • AWS上构建基于自然语言的数值和符号计算系统
  • 设计模式每日硬核训练 Day 15:享元模式(Flyweight Pattern)完整讲解与实战应用
  • MCP协议在纳米材料领域的深度应用:从跨尺度协同到智能研发范式重构
  • spring响应式编程系列:总体流程
  • Ubuntu18.04安装Qt5.12
  • 在PyCharm中部署AI模型的完整指南
  • 鸿蒙-跨设备互通,设备互通提供跨设备的相机、扫描、图库访问能力,平板或2in1设备可以调用手机的相机、扫描、图库等功能。
  • 【VSCode】在 VSCode 中运行 HTML 页面并通过 HTTPS 访问
  • 在pycharm中搭建yolo11分类检测系统--PyQt5学习(二)
  • 发现“横”字手写有难度,对比两个“横”字
  • CSS3笔记
  • 小知识合集 慢慢更新
  • vue,uniapp解决h5跨域问题
  • uniapp打包IOS私钥证书过期了,如何在非mac系统操作
  • PDK中technology file从tf格式转换为lef格式
  • 【AI插件开发】Notepad++ AI插件开发实践:支持配置界面
  • 双轮驱动能源革命:能源互联网与分布式能源赋能工厂能效跃迁
  • 在Ubuntu系统中安装和升级RabbitVCS
  • 【教程】无视硬件限制强制升级Windows 11
  • 《数据结构之美--链表oj练习》
  • 2026《数据结构》考研复习笔记三(C++高级教程)
  • 「数据可视化 D3系列」入门第十章:饼图绘制详解与实现
  • 《实战AI智能体》——邮件转工单的AI自动化
  • 「数据可视化 D3系列」入门第十一章:力导向图深度解析与实现