当前位置: 首页 > news >正文

PyTorch_张量形状操作

搭建模型时,数据都是基于张量形式的表示,网络层与层之间很多都是以不同的shape的方式进行表现和运算。

对张量形状的操作,以便能够更好处理网络各层之间的数据连接。


reshape 函数的用法

reshape 函数可以再保证张量数据不变的前提下改变数据的维度,将其转换成指定的形状,在神经网络中经常使用该函数来调节数据的形状,以适配不同网络层之间的数据传递。

import torch 
import numpy as np def test01():torch.manual_seed(0)data = torch.randint(0, 10, [4, 5])# 查看张量的形状print(data.shape, data.shape[0], data.shape[1])  # shape属性可以查看张量的形状print(data.size(), data.size(0), data.size(1))  # size()方法可以查看张量的形状# 修改张量的形状new_data = data.reshape(2, 10) # 两行十列print(new_data)# 注意:转换之后的形状元素个数得等于原来张量的元素个数,不然就报错。上面创建data就是4*5=20个元素# 使用 -1 代替省略的形状new_data = data.reshape(-1, 10) # -1表示自动计算行数print(new_data.shape)  # torch.Size([2, 10])print(new_data)new_data = data.reshape(2, -1) # -1表示自动计算列数print(new_data)if __name__ == "__main__":test01() 

transpose 和 permute 函数的使用

transpose 函数可以实现交换张量形状的指定维度。

例如:一个张量的形状为 (2, 3, 4) 可以通过 transpose 函数把 3 和 4 进行交换,将张量的形状变为 (2, 4, 3)。

permute 函数可以一次交换更多的维度。

本质上都是在修改数据的维度。

import torch 
import numpy as np # transpose 函数
def test01():torch.manual_seed(0)data = torch.randint(0, 10, [3, 4, 5])# new_data = data.reshape(4, 3, 5)  # 重新计算维度# print(new_data.shape)# 直接交换两个维度的值new_data = torch.transpose(data, 0, 1) # 只是将这两个位置进行交换。0表示第0个维度,1表示第1个维度print(new_data.shape)# 缺点:transpose 一次只能交换两个维度# 把数据的形状变成 (4, 5, 3)# 进行第一次交换:(4, 3, 5)# 进行第二次交换:(4, 5, 3)new_data = torch.transpose(data, 0, 1)new_data = torch.transpose(new_data, 1, 2)print(new_data.shape)# permute 函数
def test02():torch.manual_seed(0)data = torch.randint(0, 10, [3, 4, 5])# permute 函数可以一次性交换多个维度new_data = torch.permute(data, [1, 2, 0])print(new_data.shape)if __name__ == "__main__":test02() 

view 和 contigous 函数的用法

view 函数可以用于修改张量的形状,但是其用法比较局限,只能用于存储在整块内存中的张量。

在 PyTorch 中,有些张量是由不同的数据块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理。
例如:一个张量经过了 transpose 或者 permute 函数的处理之后,就无法使用 view 函数进行形状操作。

import torch 
import numpy as np # view 函数的使用
def test01():data = torch.tensor([[10, 20, 30], [40, 50, 60]])data = data.view(3, 2)print(data.shape)# 通过 is_contigous 函数来判断张量是否是连续内存空间 (整块的内存)print(data.is_contiguous())# view 函数使用注意
def test02():# 当张量经过 transpose 或者 permute 函数之后,内存空间基本不连续# 此时,必须先把空间连续,才能使用 view 函数进行张量形状操作data = torch.tensor([[10, 20, 30], [40, 50, 60]])data = torch.transpose(data, 0, 1)print(data.is_contiguous())# data = data.view(2, 3)  # 这是报错的data = data.contiguous().view(2, 3)print(data)if __name__ == "__main__":test02() 

squeeze 和 unsqueeze 函数的用法

squeeze 函数用删除 shape 为 1 的维度。

unsqueeze 在每个维度添加1,以增加数据的形状。

import torch 
import numpy as np # squeeze 函数使用
def test01():data = torch.randint(0, 10, [1, 3, 1, 5])print(data.shape)# 维度压缩,默认去掉所有的1的维度new_data = data.squeeze()print(new_data.shape)# 指定去掉某个1的维度new_data = data.squeeze(2)print(new_data.shape)# unsqueeze 函数使用
def test02():data = torch.randint(0, 10, [3, 5])print(data.shape)new_data = data.unsqueeze(0)print(new_data)if __name__ == "__main__":test01() 

总结

  1. reshape 函数可以在保证张量数据不变的前提下改变数据的维度
  2. transpose 函数可以实现交换张量形状的指定维度,permute 可以一次交换更多的维度
  3. view 函数也可以用于修改张量的形状,但是它要求被转换的张量内存必须连续,所以一般配合 contiguous 函数使用。
  4. squeeze 和 unsqueeze 函数可以用来增加或者减少维度。
http://www.xdnf.cn/news/275851.html

相关文章:

  • 探索大语言模型(LLM):Qwen3速测指南(transformers调用)
  • c++26新功能——Pack indexing
  • RTX-3090 Qwen3-8B Dify RAG环境搭建
  • (即插即用模块-Attention部分) 六十四、(2024) LSKA 可分离大核注意力
  • ubuntu-PyQt5安装+PyCharm配置QtDesigner + QtUIC
  • 关于离散化算法的看法与感悟
  • 软考-软件设计师中级备考 8、进程管理
  • 49认知干货:产品的生命周期及类型汇总
  • 【Java项目脚手架系列】第一篇:Maven基础项目脚手架
  • Rust的安全卫生原则
  • 【PostgreSQL数据分析实战:从数据清洗到可视化全流程】2.2 多表关联技术(INNER JOIN/LEFT JOIN/FULL JOIN)
  • C++八股--6--mysql 日志与并发控制
  • WSL在D盘安装Ubuntu
  • 纯文本Text转Html网页转换器
  • 方案精读:110页华为云数据中心解决方案技术方案【附全文阅读】
  • 项目收尾管理
  • 时序分解 | Matlab基于WOA-MVMD鲸鱼算法优化多元变分模态分解
  • C盘莫名其妙一直变大
  • 智能工厂边缘计算:从数据采集到实时决策
  • WPF之尺寸属性层次
  • 如何从GitHub上调研优秀的开源项目,并魔改应用于工作中?
  • 【言语理解】中心理解题目之选项分析
  • Unity与Unreal Engine(UE)的深度解析及高级用法
  • 【AI面试准备】模型自动化评估经验
  • MCP协议与Dify集成教程
  • 华中科技大学系统结构慕课部分答案
  • 33.降速提高EMC能力
  • 深度学习中的数据增强:提升食物图像分类模型性能的关键策略
  • 【自存】python使用matplotlib正常显示中文、负号
  • Android ART运行时无缝替换Dalvik虚拟机的过程分析