当前位置: 首页 > ds >正文

深度学习|pytorch基本运算

【1】引言

pytorch是深度学习常用的包,顾名思义,就是python适用的torch包,在python里面使用时直接import torch就可以调用。

需要注意的是,pytorch包与电脑配置、python版本有很大关系,一定要仔细阅读安装要求、找到教程后再安装。由于已经有很多详细指导教程,这里就不再班门弄斧。

本文的写作目的是记录pytorch的基本运算、以备不时之需,欢迎大家一起学习和讨论。

大家也可以到pytorch的官网教程地址自主学习:Learning PyTorch with Examples — PyTorch Tutorials 2.7.0+cu126 documentation

【2】基本运算

【2.1】导入包

导入包的操作非常简单,和其他包的导入一模一样:

# 导入包
import torch

【2.2】生成随机张量

pytorch支持生成随机张量,和numpy包的操作一样,代码:

# 导入包
import torch
# 定义随机量
x=torch.randn(3,4)
# 打印
print(x)

这里定义了一个3行4列且符合标准正态分布的随机矩阵,运算后的结果为:

图1 torch.randn(3,4) 

关于torch.randn()函数的说明,可以通过官网教程进一步加深理解:

torch.randn — PyTorch 2.7 documentation

torch.randn(*size, *, generator=None, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False, pin_memory=False) → Tensor

torch.randn()函数的 具体参数:

  • size,随机数矩阵/张量的行列尺寸
  • generator=None,随机数生成器,一般无需设置
  • out=None,输出张量,默认为没有,一般无需设置
  • dtype=None,生成随机数矩阵/张量的数据类型,一般无需设置,会默认跟随全局数据类型自动调整
  • layout=torch.strided,输出矩阵/张量的布局形式,一般默认即可,都是大家熟悉的矩阵样式
  • device=None,和电脑配置相关,一般无需设置
  • requires_grad=False,grad是求导操作,只要要求导的时候才会用
  • pin_memory=False,在内存中给张量分配空间,仅适用CPU张量,一般无需设置

【2.3】生成多维张量

pytorch支持生成多维张量,代码:

# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,4],[5,6,7,8],[1,3,5,7]])
#打印
print('y=',y)
# 生成空张量
z=torch.tensor([])
#打印
print('z=',z)

这里只调用了一个函数torch.tensor(),在函数中使用方括号“[]”可以直接定义张量,运算后的结果为:

 图2 torch.tensor([]

关于torch.tensor()函数的说明,可以通过官网教程进一步加深理解:

torch.tensor — PyTorch 2.7 documentation

torch.tensor(data, *, dtype=None, device=None, requires_grad=False, pin_memory=False) → Tensor 

torch.tensor()函数的 具体参数:

  • data,张量的初始数据。可以是列表、元组、NumPy ndarray、标量和其他类型
  • dtype=None,生成随机数矩阵/张量的数据类型,一般无需设置,会默认跟随全局数据类型自动调整
  • device=None,和电脑配置相关,一般无需设置
  • requires_grad=False,grad是求导操作,只要要求导的时候才会用
  • pin_memory=False,在内存中给张量分配空间,仅适用CPU张量,一般无需设置

【2.4】张量变形

pytorch支持张量变形运算,代码:

# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,4],[5,6,7,8],[1,3,5,7]])
#打印
print('y=',y)
# 变形
y=y.reshape(2,6)
# 打印
print('y=',y)

这里只调用了一个函数reshape(),原始张量是3行4列,reshape之后变化成2行6列,运算后的结果为:

 图3 reshape()

这里使用的reshape()函数是通过张量加点的形式直接调用,torch包也允许通过torch.reshape()的形式进行变形,官网链接为:

torch.reshape — PyTorch 2.7 documentation

这里的调用形式为:

torch.reshape(input, shape) → Tensor

 input,待变形的张量

shape,张量变形后的尺寸

可以依据这个形式重写上述代码,最后运行效果一样:

# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,4],[5,6,7,8],[1,3,5,7]])
#打印
print('y=',y)
# 变形
y=torch.reshape(y,(2,6))
# 打印
print('y=',y)

【2.5】张量加减

pytorch支持不同张量在同一位置进行加减运算,代码:

import torch
# 生成多为维张量
a=torch.tensor([[1,2,3,4],[5,6,7,8],[1,3,5,7]])
b=torch.tensor([[1,2,2,3],[5,6,2,8],[1,3,8,7]])
# 打印
print('a',a)
print('b',b)
# 张量加减法
y=a+b
z=a-b
# 打印
print(y)
print(z)

代码运行后:

  图4 加减法

张量加减是在同一位置上进行的,需要提前准备好各个位置上的元素。

如果两个张量大小不一致,pytorch也能进行加减运算,这就是广播机制。

【2.6】张量广播运算 

pytorch支持张量广播运算,代码:

# 导入包
import torch
# 生成多为维张量
y=torch.tensor([1,2,3])
z=torch.tensor([[3],[2],[1]
])
#打印
print('y=',y)
print('z=',z)
# 
a=y+z
print('a=',a)

代码非常清楚,y是行向量,z是列向量,这两个张量形式上完全不一样,所以直接看运算效果来反推pytorch是如何广播的:

 图5 广播-加法

计算结果表明,行向量y按照行广播,列向量z按照列广播,广播后变成同等大小的张量,然后对相同位置的各个元素进行叠加。

可以使用以下代码测试:

# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3],[1,2,3],[1,2,3]])
z=torch.tensor([[3,3,3],[2,2,2],[1,1,1]
])
#打印
print('y=',y)
print('z=',z)
#
a=y+z
print('a=',a)

代码运行效果:

 图6 加法 

对比图5和图6,运算效果一致。

在张量尺寸大小不一致时,pytorch进行加减法运算时自动执行广播运算,在保证两个张量外形尺寸一致后,再对同一位置的元素进行加减运算。

【3】总结

探索了部分pytorch的基本运算。 

http://www.xdnf.cn/news/10215.html

相关文章:

  • Spring Cloud 学习 —— 简单了解
  • 若依项目天气模块
  • 国产高安全芯片在供应链自主可控中的综合优势与案例分析
  • 【MySQL】MVCC与Read View
  • AWS WebRTC:获取ICE服务地址(part 3):STUN服务和TURN服务的作用
  • 影刀RPA元素稳定性优化:多策略应对失效难题
  • 带你手写React中的useReducer函数。(底层实现)
  • OpenCV中的分水岭算法 (C/C++)
  • 聊聊前端工程化
  • C#上传图片后压缩
  • 【Dify学习笔记】:Dify离线安装插件教程
  • 【原理扫描】不安全的crossdomain.xml文件和CORS(跨站资源共享)原始验证失败验证与彻底方案
  • (24)多租户 SaaS 平台设计
  • C语言进阶--自定义类型详解(结构体、枚举、联合)
  • AWS WAF设置IP白名单
  • 指数函数的泰勒展开可视化:从数学理论到Python实现
  • 历年西北工业大学计算机保研上机真题
  • 【已解决】YFRateLimitError(‘Too Many Requests. Rate limited. Try after a while.‘)
  • Spring Boot 3 整合 MQ 构建聊天消息存储系统
  • 测试用例及黑盒测试方法
  • Java进化之路:从Java 8到Java 21的重要新特性(深度解析)
  • JS手写代码篇---手写节流函数
  • Linux(8)——进程(控制篇——上)
  • mac mini m4命令行管理员密码设置
  • 【Java基础-环境搭建-创建项目】IntelliJ IDEA创建Java项目的详细步骤
  • 专业课复习笔记 11
  • 评论功能开发全解析:从数据库设计到多语言实现-优雅草卓伊凡
  • 在 Linux 上构建 Kubernetes 单节点集群:Minikube 安装与实战指南
  • 第2章-12 输出三角形面积和周长(走弯路解法)
  • 26 C 语言函数深度解析:定义与调用、返回值要点、参数机制(值传递)、原型声明、文档注释