当前位置: 首页 > news >正文

python打卡day48@浙大疏锦行

知识点回顾:

  1. 随机张量的生成:torch.randn函数
  2. 卷积和池化的计算公式(可以不掌握,会自动计算的)
  3. pytorch的广播机制:加法和乘法的广播机制

ps:numpy运算也有类似的广播机制,基本一致

一、随机张量生成

# 生成3x224x224的正态分布随机张量
random_tensor = torch.randn(3, 224, 224)  
# 生成5x5的0-1均匀分布随机张量
uniform_tensor = torch.rand(5, 5)        

二、卷积层定义示例

# 输入通道3,输出通道64,卷积核3x3
conv = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1)
# 最大池化层2x2
pool = nn.MaxPool2d(2, 2)  
# 自动计算输出尺寸
print(conv(torch.randn(1,3,224,224)).shape)  # 输出: torch.Size([1,64,224,224])

三、广播机制示例

A = torch.rand(3, 1, 4)  # shape (3,1,4)
B = torch.rand(  2,4)     # shape (2,4)
C = A + B                # 广播后shape (3,2,4)
D = A * B[:, None,:]    # 显式扩展维度# 广播规则验证
print(A.shape, " + ", B.shape, " => ", C.shape)
# 输出: torch.Size([3, 1, 4])  +  torch.Size([2, 4])  =>  torch.Size([3, 2, 4])

关键点说明:

1. torch.randn 生成正态分布张量, torch.rand 生成均匀分布
2. 卷积参数自动计算保持空间维度
3. 广播机制维度对齐规则与NumPy一致
4. 显式维度扩展可用 None / unsqueeze 实现

http://www.xdnf.cn/news/940105.html

相关文章:

  • The Quantization Model of Neural Scaling
  • 【学习笔记】深入理解Java虚拟机学习笔记——第4章 虚拟机性能监控,故障处理工具
  • 一张图 介绍什么是字节流
  • 【证书】2025公益课,人工智能训练师-高级,知识点与题库(橙点同学)
  • java 乐观锁的实现和注意细节
  • 【GPT模型训练】第二课:张量与秩:从数学本质到深度学习的基础概念解析
  • 从认识AI开始-----变分自编码器:从AE到VAE
  • webgl
  • cpp自学 day2(—>运算符)
  • 常见 DOM 事件全解析
  • DAY 48 随机函数与广播机制
  • 模拟 - #介绍 #题解
  • 使用智能表格做需求管理
  • 【本地AI大模型部署+可视化界面图文教程】Ollama+Qwen3
  • 从C到C++语法过度1
  • Ajax入门
  • SAP顾问职位汇总(第23周)
  • ​**​CID字体​**​ 和 ​**​Simple字体​**​
  • Python实例题:Python计算数理统计
  • 大语言模型(LLM)面试问题集
  • beckHoff_FB --> GET SNC 功能块
  • 程序问题实录
  • 模块缝合-把A模块换成B模块(没写完)
  • Spring缓存注解的陷阱:为什么@CacheEvict删不掉Redis缓存?
  • 正常流程、可选流程和异常
  • OPENCV图形计算面积、弧长API讲解(1)
  • 【Linux】文件赋权(指定文件所有者、所属组)、挂载光驱(图文教程)
  • 如何计算1920*1080分辨率的YUV或RGB图像数据占用大小?
  • Cinnamon修改面板小工具图标
  • 分词算法总结:不同分词算法的优点和缺点