当前位置: 首页 > java >正文

PyTorch高阶技巧:构建非线性分类器与梯度优化全解析​

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。

一. 单层神经元实现线性回归

1.1 线性模型数学原理

线性回归模型定义为:

y=w⋅x+by=w⋅x+b

其中:

  • ww:权重(Weight)

  • bb:偏置(Bias)

  • xx:输入特征

  • yy:预测输出

目标:通过最小化均方误差(MSE)损失函数学习参数:

image.png

1.2 PyTorch实现代码

import torch  
import matplotlib.pyplot as plt  
# 生成数据  
X = torch.linspace(0, 10, 100).reshape(-1, 1)  
y = 3 * X + 2 + torch.randn(100, 1) * 2  # 添加噪声  
# 定义模型  
class LinearModel(torch.nn.Module):  def __init__(self):  super().__init__()  self.linear = torch.nn.Linear(1, 1)  # 单层神经元  def forward(self, x):  return self.linear(x)  
model = LinearModel()  
criterion = torch.nn.MSELoss()  
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  
# 训练循环  
losses = []  
for epoch in range(100):  pred = model(X)  loss = criterion(pred, y)  optimizer.zero_grad()  loss.backward()  optimizer.step()  losses.append(loss.item())  
# 可视化  
plt.scatter(X.numpy(), y.numpy(), label='Data')  
plt.plot(X.numpy(), model(X).detach().numpy(), 'r', label='Fitted Line')  
plt.legend()  
plt.show()

a2ced755f87e4a816237f9c7029f82e0_230618-0002-17.jpg

二. 线性模型实现二分类

2.1 逻辑回归原理

将线性输出通过Sigmoid函数映射到(0,1)区间:

image.png

损失函数使用二元交叉熵(BCE):

image.png

2.2 代码实现与决策边界

from sklearn.datasets import make_moons  
# 生成二分类数据集  
X, y = make_moons(n_samples=200, noise=0.1)  
X = torch.tensor(X, dtype=torch.float32)  
y = torch.tensor(y, dtype=torch.float32).reshape(-1, 1)  
# 定义模型(增加Sigmoid激活)  
class LogisticRegression(torch.nn.Module):  def __init__(self):  super().__init__()  self.linear = torch.nn.Linear(2, 1)  self.sigmoid = torch.nn.Sigmoid()  def forward(self, x):  return self.sigmoid(self.linear(x))  
model = LogisticRegression()  
criterion = torch.nn.BCELoss()  
optimizer = torch.optim.Adam(model.parameters(), lr=0.1)  
# 训练  
for epoch in range(1000):  pred = model(X)  loss = criterion(pred, y)  optimizer.zero_grad()  loss.backward()  optimizer.step()  
# 可视化决策边界  
def plot_decision_boundary(model, X, y):  x_min, x_max = X[:,0].min()-0.5, X[:,0].max()+0.5  y_min, y_max = X[:,1].min()-0.5, X[:,1].max()+0.5  xx, yy = torch.meshgrid(torch.linspace(x_min, x_max, 100),  torch.linspace(y_min, y_max, 100))  grid = torch.cat((xx.reshape(-1,1), yy.reshape(-1,1)), dim=1)  probs = model(grid).reshape(xx.shape)  plt.contourf(xx, yy, probs > 0.5, alpha=0.3)  plt.scatter(X[:,0], X[:,1], c=y.squeeze(), edgecolors='k')  plt.show()  
plot_decision_boundary(model, X, y)

关键输出

  • 训练后准确率 > 85%

  • 决策边界图显示线性分类器的局限性

三. 多层感知机(MLP)手动推导与实现

3.1 手动推导反向传播

网络结构:输入层(2) → 隐藏层(4, ReLU) → 输出层(1, Sigmoid)

前向传播

image.png

反向传播梯度计算

image.png

3.2 PyTorch自动梯度实现

class MLP(torch.nn.Module):  def __init__(self):  super().__init__()  self.fc1 = torch.nn.Linear(2, 4)  self.fc2 = torch.nn.Linear(4, 1)  self.relu = torch.nn.ReLU()  self.sigmoid = torch.nn.Sigmoid()  def forward(self, x):  x = self.relu(self.fc1(x))  x = self.sigmoid(self.fc2(x))  return x  
model = MLP()  
optimizer = torch.optim.Adam(model.parameters(), lr=0.05)  
# 复用之前的训练循环  
# ...  
plot_decision_boundary(model, X, y)  # 显示非线性决策边界

优化技巧

  • 权重初始化torch.nn.init.kaiming_normal_(self.fc1.weight)

  • 学习率调度scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)

  • 梯度裁剪torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)

四. 总结

4.1 核心要点总结

image.png

image.png

附:完整训练监控代码

from torch.utils.tensorboard import SummaryWriter  
writer = SummaryWriter()  
for epoch in range(1000):  pred = model(X)  loss = criterion(pred, y)  acc = ((pred > 0.5) == y).float().mean()  optimizer.zero_grad()  loss.backward()  optimizer.step()  writer.add_scalar('Loss/train', loss.item(), epoch)  writer.add_scalar('Accuracy/train', acc.item(), epoch)  
# 启动TensorBoard  
# tensorboard --logdir=runs

:本文代码基于PyTorch 2.0+实现,运行前需安装:

pip install torch matplotlib scikit-learn tensorboard

如果本次分享对你有所帮助,记得告诉身边有需要的朋友,"我们正在经历的不仅是技术迭代,而是认知革命。当人类智慧与机器智能形成共生关系,文明的火种将在新的维度延续。"在这场波澜壮阔的文明跃迁中,主动拥抱AI时代,就是掌握打开新纪元之门的密钥,让每个人都能在智能化的星辰大海中,找到属于自己的航向。

http://www.xdnf.cn/news/8441.html

相关文章:

  • 2025电工杯:光伏电站发电功率日前预测问题 第一问基于历史功率的光伏电站发电特性 -完整matlab代码
  • I.MX6ULL_Linux_系统篇(26) buildroot分析
  • Python 大模型知识蒸馏详解,知识蒸馏大模型,大模型蒸馏代码实战,LLMs knowledge distill LLM
  • stm32上拉电阻,1K,4.7K,5.6K,10K怎么选?
  • 职业规划:动态迭代的系统化路径
  • javaScirpt学习第五章(函数)-第一部分
  • 【Web前端】JavaScript入门与基础(一)
  • WebStorm 高效快捷方式全解析
  • 11.5 Python+LangGraph智能代理开发:节点设计与业务流实战全解析
  • 【通用智能体】smolagents/open_deep_research:面向开放式研究的智能体开发框架深度解析
  • Vue3 对象转换
  • 七:操作系统文件系统之目录结构
  • 【Elasticsearch】创建别名的几种方式
  • 算法打卡第五天
  • 三、如何优化opengl在gpu上的渲染性能
  • 「EMD/EEMD/VMD 信号分解方法 ——ECG信号处理-第十四课」2025年5月23日
  • 每日Prompt:虚拟世界游
  • Linux性能监控:工具与最佳实践
  • Vue.js教学第十二章:Vue Router实战指南(二)
  • C++ 日志系统实战第六步:性能测试
  • Day 29 训练
  • 永磁同步电机控制算法-滑模反馈线性化控制器
  • 红队攻防实践:15大漏洞原理与复现全解析
  • 【agent】简历信息提取智能体
  • AGV(自动导引车)通信协议及通信链路性能需求分析
  • 力扣HOT100之图论:994. 腐烂的橘子
  • 二、详细解释OpenGL图形管线中顶点处理阶段的工作原理
  • day57—快速(选择/排序)—数组中的第 K 个最大元素(LeetCode-215)
  • 国家网络身份认证公共服务管理办法
  • nginx配置跨域请求,后台不用配置啦,完美