当前位置: 首页 > ops >正文

张量拼接操作

一.前言

本章节来介绍一下张量拼接的操作,掌握torch.cat torch.stack使⽤,张量的拼接操作在神经⽹络搭建过程中是⾮常常⽤的⽅法,例如: 在后⾯将要学习到的残差⽹络、注意⼒机 制中都使⽤到了张量拼接。

二.torch.cat 函数的使用

torch.cat 函数可以将两个张量根据指定的维度拼接起来.

import torchdef test():data1 = torch.randint(0, 10, [3, 5, 4])data2 = torch.randint(0, 10, [3, 5, 4])print(data1)print(data2)print('-' * 50)# 1. 按0维度拼接new_data = torch.cat([data1, data2], dim=0)print(new_data.shape)print('-' * 50)# 2. 按1维度拼接new_data = torch.cat([data1, data2], dim=1)print(new_data.shape)print('-' * 50)# 3. 按2维度拼接new_data = torch.cat([data1, data2], dim=2)print(new_data.shape)if __name__ == '__main__':test()

结果展示:

tensor([[[6, 7, 2, 6],
[4, 6, 4, 3],
[5, 3, 4, 9],
[8, 8, 6, 7],
[0, 3, 3, 0]],

        [[6, 1, 2, 0],
[5, 6, 7, 0],
[6, 4, 8, 0],
[2, 2, 8, 3],
[0, 1, 6, 8]],

        [[3, 5, 0, 8],
[6, 2, 1, 7],
[8, 9, 9, 8],
[3, 8, 8, 0],
[5, 8, 4, 4]]])
tensor([[[7, 2, 2, 1],
[8, 0, 6, 6],
[9, 0, 6, 5],
[1, 3, 7, 7],
[7, 0, 5, 1]],

        [[0, 7, 3, 1],
[9, 2, 9, 0],
[9, 6, 2, 1],
[9, 3, 5, 0],
[8, 8, 6, 2]],

        [[1, 8, 9, 9],
[4, 3, 0, 9],
[7, 3, 3, 8],
[2, 4, 6, 9],
[2, 1, 0, 5]]])
--------------------------------------------------
torch.Size([6, 5, 4])
--------------------------------------------------
torch.Size([3, 10, 4])
--------------------------------------------------
torch.Size([3, 5, 8])

 

三.torch.stack 函数的使用

torch.stack 函数可以将两个张量根据指定的维度叠加起来.

import torchdef test():data1 = torch.randint(0, 10, [2, 3])data2 = torch.randint(0, 10, [2, 3])print(data1)print(data2)print("="*50)new_data = torch.stack([data1, data2], dim=0)print(new_data.shape)print(new_data)print("=" * 50)new_data = torch.stack([data1, data2], dim=1)print(new_data.shape)print(new_data)print("=" * 50)new_data = torch.stack([data1, data2], dim=2)print(new_data.shape)print(new_data)if __name__ == '__main__':test()

 结果展示:

tensor([[6, 9, 6],
[3, 2, 7]])
tensor([[3, 3, 4],
[9, 1, 4]])
==================================================
torch.Size([2, 2, 3])
tensor([[[6, 9, 6],
[3, 2, 7]],

        [[3, 3, 4],
[9, 1, 4]]])
==================================================
torch.Size([2, 2, 3])
tensor([[[6, 9, 6],
[3, 3, 4]],

        [[3, 2, 7],
[9, 1, 4]]])
==================================================
torch.Size([2, 3, 2])
tensor([[[6, 3],
[9, 3],
[6, 4]],

        [[3, 9],
[2, 1],
[7, 4]]])

这里十分的不好理解,大家拷贝完代码自己执行理解一下。

四.总结 

张量的拼接操作也是在后⾯我们经常使⽤⼀种操作。cat 函数可以将张量按照指定的维度拼接起来,stack 函数可以将张量按照指定的维度叠加起来。 

 

 

http://www.xdnf.cn/news/15228.html

相关文章:

  • Git系列--4.Git分支设计规范
  • 深大计算机游戏开发 实验二
  • 8. JVM类装载的执行过程
  • 【读书笔记】《C++ Software Design》第二章:The Art of Building Abstractions
  • c++反射实现
  • Python ExcelWriter详解:从基础到高级的完整指南
  • 网络安全初级--搭建
  • python的婚纱影楼管理系统
  • Redis Geospatial 功能详解及多边形包含判断实现
  • SpringAI实现聊天记录保存到MySQL
  • 「日拱一码」025 机器学习——评价指标
  • Spring 框架中的设计模式:从实现到思想的深度解析
  • C++类模板继承部分知识及测试代码
  • 在 Android 库模块(AAR)中,BuildConfig 默认不会自动生成 VERSION_CODE 和 VERSION_NAME 字段
  • Linux之Zabbix分布式监控篇(一)
  • 云原生技术与应用-生产环境构建高可用Harbor私有镜像仓库
  • 网络通信模型对比:OSI与TCP/IP参考模型解析
  • BGP 路由优选属性(7)【MED】官方考试综合实验题【bgp】【acl】【ip-prefix】【route-policy】【icmp 环路】精讲
  • Frida绕过SSL Pinning (证书绑定)抓包;Frida注入;app无法抓包问题解决。
  • 哔哩哔哩第三方TV-BBLL最新版
  • Pyqt5 FlexRay
  • Redis事件机制
  • 特辑:Ubuntu,前世今生
  • Claude code在Windows上的配置流程
  • 基于Opencv的缺陷检测实战
  • cuDNN 的 IMPLICIT_GEMM 算法
  • 深入理解设计模式:建造者模式详解
  • Spring Boot 2.4+中bootstrap.yml加载顺序的源码深度解析
  • NLP:RNN文本生成案例分享
  • 常用控件QWidget