当前位置: 首页 > news >正文

day33 python深度学习入门

目录

深度学习入门:PyTorch实现鸢尾花分类

一、环境搭建

1. 创建Python环境

2. 安装必要的库

3. 检查CUDA环境

二、数据准备

1. 加载数据集

2. 数据预处理

3. 转换为PyTorch张量

三、模型构建

1. 定义模型结构

2. 定义损失函数和优化器

四、模型训练

1. 训练过程

2. 训练结果

五、结果可视化

六、总结


在深度学习的旅程中,神经网络是不可或缺的核心工具之一。今天,我将通过一个简单的项目,使用PyTorch框架实现鸢尾花分类任务,详细记录从环境搭建到模型训练的全过程,帮助大家更好地理解和实践。

一、环境搭建

在开始之前,我们需要搭建合适的开发环境。PyTorch是深度学习领域中非常流行的框架,它提供了丰富的功能和灵活的接口,方便我们构建和训练神经网络模型。

1. 创建Python环境

为了确保项目的独立性和稳定性,我们首先创建一个新的Python环境。在终端中运行以下命令:

conda create -n DL python=3.8
conda env list
conda activate DL

这将创建一个名为“DL”的环境,并安装Python 3.8版本。

2. 安装必要的库

在激活环境后,我们需要安装一些常用的库。运行以下命令安装Jupyter和scikit-learn:

conda install jupyter
pip install scikit-learn

接下来,安装PyTorch。由于PyTorch支持GPU加速,我们可以根据自己的硬件条件选择安装CPU版本或GPU版本。如果你的电脑配备了NVIDIA显卡,可以通过以下命令安装支持CUDA的PyTorch版本:

pip install torch torchvision torchaudio

如果你使用的是AMD显卡或苹果电脑,可以直接安装CPU版本的PyTorch:

pip install torch torchvision torchaudio

3. 检查CUDA环境

在安装完成后,我们需要检查CUDA是否可用。在Python环境中运行以下代码:

import torch
if torch.cuda.is_available():print("CUDA可用!")device_count = torch.cuda.device_count()print(f"可用的CUDA设备数量: {device_count}")current_device = torch.cuda.current_device()print(f"当前使用的CUDA设备索引: {current_device}")device_name = torch.cuda.get_device_name(current_device)print(f"当前CUDA设备的名称: {device_name}")cuda_version = torch.version.cudaprint(f"CUDA版本: {cuda_version}")
else:print("CUDA不可用。")

如果输出显示CUDA可用,说明你的环境已经正确配置,可以利用GPU加速训练过程。

二、数据准备

数据是机器学习和深度学习的基础。在本项目中,我们使用经典的鸢尾花数据集。鸢尾花数据集是一个多变量数据集,包含150个样本,每个样本有4个特征,分为3个类别。

1. 加载数据集

使用scikit-learn库加载鸢尾花数据集:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split# 加载鸢尾花数据集
iris = load_iris()
X = iris.data  # 特征数据
y = iris.target  # 标签数据# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

2. 数据预处理

神经网络对输入数据的尺度非常敏感,因此我们需要对数据进行归一化处理。使用MinMaxScaler将特征值缩放到0到1的范围内:

from sklearn.preprocessing import MinMaxScalerscaler = MinMaxScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)

3. 转换为PyTorch张量

PyTorch使用张量(Tensor)作为数据的基本单元。将数据转换为张量,并确保标签数据的类型为torch.LongTensor

import torchX_train = torch.FloatTensor(X_train)
y_train = torch.LongTensor(y_train)
X_test = torch.FloatTensor(X_test)
y_test = torch.LongTensor(y_test)

三、模型构建

接下来,我们定义一个简单的全连接神经网络模型。该模型包含一个输入层、一个隐藏层和一个输出层。

1. 定义模型结构

import torch.nn as nn
import torch.optim as optimclass MLP(nn.Module):def __init__(self):super(MLP, self).__init__()self.fc1 = nn.Linear(4, 10)  # 输入层到隐藏层self.relu = nn.ReLU()self.fc2 = nn.Linear(10, 3)  # 隐藏层到输出层def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return outmodel = MLP()

2. 定义损失函数和优化器

对于分类任务,我们通常使用交叉熵损失函数。同时,选择随机梯度下降(SGD)作为优化器:

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)

四、模型训练

训练是深度学习的核心环节。通过不断迭代优化模型参数,使模型能够更好地拟合训练数据。

1. 训练过程

设置训练轮数为20000轮,并在每100轮打印一次损失值:

num_epochs = 20000
losses = []for epoch in range(num_epochs):# 前向传播outputs = model(X_train)loss = criterion(outputs, y_train)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()# 记录损失值losses.append(loss.item())# 打印训练信息if (epoch + 1) % 100 == 0:print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

2. 训练结果

训练过程中,损失值逐渐降低,表明模型在不断学习和优化。以下是部分训练输出:

Epoch [100/20000], Loss: 1.0730
Epoch [200/20000], Loss: 1.0258
Epoch [300/20000], Loss: 0.9757
...
Epoch [19900/20000], Loss: 0.0604
Epoch [20000/20000], Loss: 0.0603

五、结果可视化

为了更直观地展示训练过程,我们可以绘制损失曲线。使用Matplotlib库绘制损失值随训练轮数的变化:

import matplotlib.pyplot as pltplt.plot(range(num_epochs), losses)
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.title('Training Loss over Epochs')
plt.show()

从图中可以看出,随着训练轮数的增加,损失值逐渐趋于稳定,表明模型已经收敛。

六、总结

通过本次实践,我深刻体会到了深度学习的魅力和强大功能。从环境搭建到模型训练,每一步都至关重要。以下是本次实践的几点总结:

  1. 环境搭建的重要性:合适的开发环境是项目顺利进行的基础。通过创建独立的Python环境并安装必要的库,可以避免版本冲突和依赖问题。

  2. 数据预处理的作用:数据的质量直接影响模型的性能。通过归一化处理,可以将特征值缩放到合适的范围,提高模型的训练效果。

  3. 模型结构的设计:简单的全连接神经网络已经能够很好地完成鸢尾花分类任务。在实际应用中,可以根据任务的复杂度选择更复杂的网络结构。

  4. 训练过程的优化:选择合适的损失函数和优化器是训练成功的关键。通过不断调整学习率和训练轮数,可以优化模型的性能。

  5. 结果可视化的价值:通过绘制损失曲线,可以直观地观察模型的训练过程,判断模型是否收敛。

@浙大疏锦行

http://www.xdnf.cn/news/583831.html

相关文章:

  • jmeter登录接口生成一批token并写入csv文件
  • 浪潮Inspur服务器产品线概述
  • 【paddle】常见的数学运算
  • Ubuntu 22.04上升级npm版本
  • 升级node@22后运行npm install报错 distutils not found
  • canvas(三)-动画3d
  • iisARR负均衡
  • 【IDEA问题】springboot本地启动应用报错:程序包不存在;找不到符号
  • 在react项目中使用andt日期组件,选择周和季度,直接获取所对应的日期区间
  • C++ HTTP框架推荐
  • 人脸识别备案开启安全防护模式!紧跟《办法》!
  • uni-app学习笔记九-vue3 v-for指令
  • redis Pub/Sub 简介 -16 (PUBLISH、SUBSCRIBE、PSUBSCRIBE)
  • 【C++20新特性】ranges::sort()使用方法,优势,注意点
  • 【1004. 最大连续1的个数 III】
  • ai之pdf解析工具 PPStructure 还是PaddleOCR
  • 火山引擎火山云带宽价格
  • 【工作流】Fastgpt配置豆包模型-火山引擎
  • Github 2025-05-22Go开源项目日报 Top10
  • 【COMPUTEX 2025观察】NVIDIA开放NVLink:一场重构AI算力版图的“阳谋“
  • Go File多终端数据同步技术全解:跨设备数据管理实战指南与复杂场景处理过程
  • PostgreSQL14 +patroni+etcd+haproxy+keepalived 集群部署指南
  • C#在 .NET 9.0 中启用二进制序列化:配置、风险与替代方案
  • 模型剪枝的定义与核心作用
  • 硬件开发复盘实战指南
  • CTF签到题
  • 自制操作系统day8 (鼠标数据取得、通往32位模式之路、A20GATE、切换到保护模式、控制寄存器cr0-cr4以及cr8、ALIGNB)
  • 基于 AMDXCVU47P HBM2 FPGA 的 2 路 100G 光纤 PCIe 高性能计算加速卡
  • LabVIEW多通道液位监控
  • 框架开发与原生开发的权衡:React案例分析(原生JavaScript)