当前位置: 首页 > backend >正文

全连接层和卷积层等效情况举例

文章目录

  • 全连接层和卷积层等效情况举例
    • 1. 全连接层参考
    • 2. 情景1:卷积核大小等于输入大小
    • 3. 情景2:卷积核大小为1
    • 4. 总结

全连接层和卷积层等效情况举例

在什么情况下,全连接层和卷积层是等效的?

一是当卷积滤波器与感受野大小相当时;二是当卷积滤波器大小为1时。

import torch
print(f"PyTorch version: {torch.__version__}")
PyTorch version: 2.7.0+cpu

1. 全连接层参考

下图展示了一个有4个输入单元和2个输出单元的全连接层示例,它包含了8个权重和2个偏置单元。

全连接层

# 设置随机种子,保证结果可复现
torch.manual_seed(888)# 定义一个全连接层(线性层),输入特征数为4,输出特征数为2
fc = torch.nn.Linear(4, 2)# 构造一个输入张量,形状为(1, 4)
inputs = torch.tensor([[1., 2., 3., 4.]])# 在不计算梯度的上下文中进行前向传播
with torch.no_grad():out1 = fc(inputs)# 打印输出结果
print(out1)
tensor([[0.2983, 1.4994]])
# Check the weights of the linear layer
fc.weight
Parameter containing:
tensor([[-0.4525,  0.1935, -0.3702,  0.3160],[ 0.2698,  0.2885,  0.2830, -0.0791]], requires_grad=True)

2. 情景1:卷积核大小等于输入大小

假设卷积核大小为 2 × 2 2 \times 2 2×2,有一个输入通道、两个输出通道。输入的大小同样是 2 × 2 2 \times 2 2×2

卷积核大小等于输入大小

PyTorch中的卷积层默认期望输入为NCHW格式,其中:

  • N = 批量大小(batch size)
  • C = 通道数(channels)
  • H = 高度(height)
  • W = 宽度(width)
# 将形状为(1, 4)的inputs张量重塑为(1, 1, 2, 2),以匹配卷积层的输入格式(N, C, H, W)
reshaped = inputs.reshape(-1, 1, 2, 2)
reshaped
tensor([[[[1., 2.],[3., 4.]]]])
# 定义一个2D卷积层,输入通道数为1,输出通道数为2,卷积核大小为2x2
conv = torch.nn.Conv2d(in_channels=1,      # 输入通道数out_channels=2,     # 输出通道数kernel_size=2       # 卷积核大小为2x2
)# 查看卷积层的权重张量形状
conv.weight.shape      # 形状为 (2, 1, 2, 2):2个输出通道,每个通道1个输入通道,卷积核2x2
torch.Size([2, 1, 2, 2])

注意:Conv2d中的权重同样是随机初始化的,因此如果要获得完全相同的结果,需要将卷积层中的随机权重用全连接层中的权重进行覆盖。

# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第0个输出通道的卷积核conv.weight[0][0] = fc.weight[0].reshape(1, 2, 2)# 将fc第1个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第1个输出通道的卷积核conv.weight[1][0] = fc.weight[1].reshape(1, 2, 2)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out2 = conv(reshaped)# 打印卷积层的输出结果
print(out2)
tensor([[[[0.2983]],[[1.4994]]]])
# 比较全连接层输出和卷积层输出是否完全相等(元素级比较)
out1.flatten() == out2.flatten()
tensor([True, True])

3. 情景2:卷积核大小为1

卷积核大小为1

# 将形状为(1, 4)的inputs张量重塑为(1, 4, 1, 1),以匹配卷积层输入格式(N, C, H, W)
reshaped2 = inputs.reshape(-1, 4, 1, 1)
reshaped2
tensor([[[[1.]],[[2.]],[[3.]],[[4.]]]])
# 定义一个2D卷积层,输入通道数为4,输出通道数为2,卷积核大小为1x1
conv = torch.nn.Conv2d(in_channels=4,      # 输入通道数为4out_channels=2,     # 输出通道数为2kernel_size=1       # 卷积核大小为1x1
)# 查看卷积层的权重张量形状
conv.weight.shape
torch.Size([2, 4, 1, 1])
# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第0个输出通道的卷积核conv.weight[0] = fc.weight[0].reshape(4, 1, 1)# 将fc第1个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第1个输出通道的卷积核conv.weight[1] = fc.weight[1].reshape(4, 1, 1)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out3 = conv(reshaped2)# 打印卷积层的输出结果
print(out3)
tensor([[[[0.2983]],[[1.4994]]]])
out1.flatten() == out3.flatten()
tensor([True, True])

4. 总结

本文通过具体的PyTorch代码和可视化示例,演示了全连接层(Linear)和卷积层(Conv2d)在两种特殊情况下的等效性:

    1. 当卷积核大小等于输入特征的空间尺寸时,卷积操作等价于全连接操作。此时,每个卷积核覆盖整个输入区域,权重和偏置可以一一对应映射到全连接层。
    1. 当卷积核大小为1×1,且输入通道数等于全连接层输入特征数时,卷积层的每个输出通道等价于全连接层的一个输出单元。此时,卷积层的权重和偏置同样可以直接赋值自全连接层,实现完全等价的前向传播结果。

通过实验验证,两种情况下卷积层和全连接层的输出完全一致。这说明在特定结构下,二者可以互相替换。

http://www.xdnf.cn/news/13734.html

相关文章:

  • 离线部署openstack 2024.1控制节点keystone
  • Design Compiler:使用read_file命令读取RTL设计
  • Python Day 48 学习(日志Day18学习)
  • 谷歌被禁用的麦克风如何能使用
  • 榕壹云打车系统:赋能出租与网约车的全场景解决方案
  • 阿里1688 普通 231滑块 x82 分析
  • 前端将多个PDF链接的内容拼接成一个后返回出一个链接进行打开
  • 一起学习swin-transformer(一)
  • STM32开发GCC常用编译选项
  • 计组刷题日记(1)
  • 快速熟悉公司的服务器开发环境需要系统
  • 软件测试之APP测试要点(包含Monkey基础使用)
  • 如何创建vue工程?以及遇到问题的解决方法
  • vue3提供的hook和通常的函数有什么区别
  • Python直接访问Windows API库之pywin32使用详解
  • mysql递归查询所有父节点拼接父节点名称
  • 使用Gradle打包springboot项目为JAR包教程
  • 蓝凌EKP产品:低门槛、可扩展、可视化公式引擎应用示例
  • 功能化组件编码流程-2(延续上一章)
  • 《HarmonyOSNext属性动画实战手册:让UI丝滑起舞的魔法指南》
  • 人工智能新范式:从大模型到智能体的演化逻辑
  • 语音信号处理三十——高效多相抽取器(Polyphase+Noble)
  • Java并发编程实战 Day 18:线程池深度剖析与自定义实现
  • 工业自动化网关在饮料行业中的应用:DeviceNet转Modbus RTU协议转换网关案例
  • sssssssssssss
  • 电子电路原理第十八章(有源滤波器)
  • 【C#如何计算从某一个日期到今天过了多少天】2022-4-24
  • 94. 评论日记
  • Linux CPU 亲和性
  • ARM架构下安装mysql8.0