当前位置: 首页 > ds >正文

实战四:基于PyTorch实现猫狗分类的web应用【2/3】

​一、需求描述

实战四分为三部分来实现,第二部分是基于PyTorch的猫狗图像可视化训练的教程,实现了一个完整的猫狗分类模型训练流程,使用预训练的ResNet50模型进行迁移学习,并通过SwanLab进行实验跟踪。

效果图

​二、实现思路

总体思路

  1. 导入和初始化配置:设置训练超参数(学习率、批次大小、训练轮数等);
  2. 加载数据集:读取自定义数据集,并设置数据加载器;
  3. 模型构建:加载预训练的ResNet50模型,并修改全连接层适配二分类任务;
  4. 训练配置:定义交叉熵损失函数,设置Adam优化器;
  5. 模型训练:循环遍历训练轮次,在每轮次遍历每个批次的数据,并实时打印训练进度及记录损失值到SwanLab。

2.1 导入和初始化配置

import swanlab
num_epochs=20
lr=1e-4
batch_size=8
num_classes=2
device="cuda"swanlab.init(experiment_name="模型训练实验",description="猫狗分类",mode="local",config={"model":"resnet50","optim":"Adam","lr":lr,"batch_size":batch_size,"num_epochs":num_epochs,"num_class":num_classes,"device":device,}
)
  • import swanlab - 导入SwanLab库,用于实验跟踪和可视化
  • num_epochs=20 - 设置训练轮数为20轮
  • lr=1e-4 - 设置学习率为0.0001
  • batch_size=8 - 设置批次大小为8
  • num_classes=2 - 设置分类类别数为2(猫和狗)
  • device="cuda" - 设置使用GPU进行训练
  • swanlab.init() - 初始化SwanLab实验,记录实验配置参数

2.2 加载数据集

import readDataset
from torch.utils.data import DataLoader
train_dataset=readDataset.DatasetLoader(readDataset.ds_train)
train_loader=(DataLoader(train_dataset,batch_size=batch_size,shuffle=True))
  • import readDataset - 导入自定义的数据集读取模块
  • from torch.utils.data import DataLoader - 导入PyTorch的数据加载器
  • train_dataset=readDataset.DatasetLoader(readDataset.ds_train) - 创建训练数据集对象
  • train_loader=(DataLoader(train_dataset,batch_size=batch_size,shuffle=True)) - 创建数据加载器,设置批次大小并启用随机打乱

2.3 模型构建

import torch
import torchvision
from torchvision.models import ResNet50_Weightsmodel=torchvision.models.resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)
in_features=model.fc.in_features
model.fc=torch.nn.Linear(in_features,num_classes)
model.to(device)
  • import torch - 导入PyTorch深度学习框架
  • import torchvision - 导入计算机视觉库
  • from torchvision.models import ResNet50_Weights - 导入ResNet50预训练权重
  • model=torchvision.models.resnet50(weights=ResNet50_Weights.IMAGENET1K_V2) - 加载预训练的ResNet50模型
  • in_features=model.fc.in_features - 获取全连接层的输入特征数
  • model.fc=torch.nn.Linear(in_features,num_classes) - 替换最后的全连接层,输出类别数为2
  • model.to(device) - 将模型移动到GPU设备

2.4 训练配置

criterion=torch.nn.CrossEntropyLoss()
optimizer=torch.optim.Adam(model.parameters(),lr=lr)
  • criterion=torch.nn.CrossEntropyLoss() - 定义交叉熵损失函数,适用于多分类问题
  • optimizer=torch.optim.Adam(model.parameters(),lr=lr) - 定义Adam优化器,设置学习率

2.5 模型训练

for epoch in range(num_epochs):model.train()for iter,(inputs,labels) in enumerate(train_loader):inputs,labels=inputs.to(device),labels.to(device)optimizer.zero_grad()outputs=model(inputs)loss=criterion(outputs,labels)loss.backward()optimizer.step()print('Epoch[{}/{}],Iteration[{}/{}],Loss:{:.4f}'.format(epoch+1,num_epochs,iter+1,len(train_loader),loss.item()))swanlab.log({"train_loss":loss.item()})
  • for epoch in range(num_epochs): - 外层循环,遍历每个训练轮次
  • model.train() - 设置模型为训练模式
  • for iter,(inputs,labels) in enumerate(train_loader): - 内层循环,遍历每个批次的数据
  • inputs,labels=inputs.to(device),labels.to(device) - 将输入数据和标签移动到GPU
  • optimizer.zero_grad() - 清空梯度
  • outputs=model(inputs) - 前向传播,获取模型预测结果
  • loss=criterion(outputs,labels) - 计算损失
  • loss.backward() - 反向传播,计算梯度
  • optimizer.step() - 更新模型参数
  • print(...) - 打印训练进度和损失值
  • swanlab.log({"train_loss":loss.item()}) - 记录损失值到SwanLab实验跟踪系统

三、完整代码

import swanlab
num_epochs=20
lr=1e-4
batch_size=8
num_classes=2
device="cuda"swanlab.init(experiment_name="模型训练实验",description="猫狗分类",mode="local",config={"model":"resnet50","optim":"Adam","lr":lr,"batch_size":batch_size,"num_epochs":num_epochs,"num_class":num_classes,"device":device,}
)import readDataset
from torch.utils.data import DataLoader
train_dataset=readDataset.DatasetLoader(readDataset.ds_train)
train_loader=(DataLoader(train_dataset,batch_size=batch_size,shuffle=True))import torch
import torchvision
from torchvision.models import ResNet50_Weightsmodel=torchvision.models.resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)
in_features=model.fc.in_features
model.fc=torch.nn.Linear(in_features,num_classes)
model.to(device)
criterion=torch.nn.CrossEntropyLoss()
optimizer=torch.optim.Adam(model.parameters(),lr=lr)for epoch in range(num_epochs):model.train()for iter,(inputs,labels) in enumerate(train_loader):inputs,labels=inputs.to(device),labels.to(device)optimizer.zero_grad()outputs=model(inputs)loss=criterion(outputs,labels)loss.backward()optimizer.step()print('Epoch[{}/{}],Iteration[{}/{}],Loss:{:.4f}'.format(epoch+1,num_epochs,iter+1,len(train_loader),loss.item()))swanlab.log({"train_loss":loss.item()})

四、效果展示

  • PyCharm运行日志
    在这里插入图片描述
  • PyCharm终端日志
    在这里插入图片描述
  • SwanLab工作区
    在这里插入图片描述
  • 模拟训练实验的概览
    在这里插入图片描述
  • 模拟训练实验的实验图表
    在这里插入图片描述
  • 模拟训练实验的日志
    在这里插入图片描述
  • 模拟训练实验的实验环境
    在这里插入图片描述

五、问题与解决

问题一:ModuleNotFoundError: No module named ‘XXX’
解决一:pip install XXX

pip install 'swanlab[dashboard]'
http://www.xdnf.cn/news/14874.html

相关文章:

  • PCB设计实践(三十七)PCB机械孔设计全解析:作用原理与设计规范指南
  • MyBatis实战指南(八)MyBatis日志
  • ai数据分析黄金
  • ideal2025安装教程
  • Elasticsearch 集群升级实战指引—7.x 升级到 8.x
  • 流量低、获客越来越难?创客匠人让知识变现不走弯路
  • HarmonyOS NEXT仓颉开发语言实战案例:健身App
  • redis延时双删,为什么第一次删除
  • 什么是 Solidity 以太坊上主流合约语言?
  • 【大语言模型入门】—— 浅析LLM基座—Transformer原理
  • Hive SQL 快速入门指南
  • Linux基本命令篇 —— less命令
  • 华为云Flexus+DeepSeek征文|利用华为云一键部署的Dify平台构建高效智能电商客服系统实战
  • 【论文阅读笔记】知网SCI——基于主成分分析的空间外差干涉数据校正研究
  • java进阶
  • 基于Uniapp+SpringBoot+Vue 的在线商城小程序
  • matplotlib 绘制水平柱状图
  • Java面试题030:一文深入了解MySQL(2)
  • Geollama 辅助笔记:raw_to_prompt_strings_geo.py
  • 印度和澳洲的地理因素
  • BUUCTF [ACTF新生赛2020]music 1
  • TCP 和 UDP 是什么?
  • nginx基本使用 linux(mac下的)
  • MSPM0G3507之GPIO配置报错 #Sysconfig报错
  • 数据结构与算法 --- 双向链表
  • 从 AJAX 到 axios:前端与服务器通信实战指南
  • VR训练美国服务器:高性能解决方案与优化指南
  • 可编程逻辑器件的发展与比较
  • 逆向入门(22)程序逆向篇-TraceMe
  • FPGA设计的上板调试