当前位置: 首页 > web >正文

transformer-位置编码

一、PositionEncoding

  • 论文地址

    https://arxiv.org/pdf/1706.03762

位置编码介绍

  • 位置编码在Transformer模型中是用来将位置信息与输入序列相结合的一种技术。在传统的序列模型(如RNN)中,输入的序列数据是有顺序的,模型本身能够感知输入数据的顺序。然而,Transformer是一种不具备内置顺序敏感性的模型,因此需要通过位置编码来将位置信息显式地添加到输入数据中。

    image-20250422213507984

位置编码的数学公式

  • 在Transformer中,位置编码通过一组确定性的正弦和余弦函数的组合来产生。这种编码方式允许模型学习位置信息,同时也保留了相对位置的不变性。具体的数学公式如下

    image-20250422213601326
    P E ( p o s , 2 i ) = sin ⁡ ( p o s 1000 0 2 i d m o d e l ) P E ( p o s , 2 i + 1 ) = cos ⁡ ( p o s 1000 0 2 i d m o d e l ) PE_(pos,2i) = \sin ( \frac{pos}{10000^{ \frac{2i}{d_{model}} } } ) \\ \quad \\ PE_(pos,2i+1) = \cos ( \frac{pos}{10000^{ \frac{2i}{d_{model}} } } ) \\ PE(pos,2i)=sin(10000dmodel2ipos)PE(pos,2i+1)=cos(10000dmodel2ipos)

    其中, p o s pos pos 表示位置, i i i 是维度索引, d m o d e l d_{model} dmodel 是模型的维度 (即embedding的维度)。

代码

  • 根据上述公式,实现 PositionlEncoding

    from torch import nn
    import torchclass PositionEncoding(nn.Module):"""位置编码"""def __init__(self, d_model, max_seq_len=512):super(PositionEncoding, self).__init__()# shape[max_seq_len]position = torch.arange(0, max_seq_len)# shape[max_seq_len, 1]position = position.unsqueeze(1)  # 升维# shape [d_model/2]item = 1 / 10000 ** (torch.arange(0, d_model, 2) / d_model)# shape[max_seq_len, d_model/2]tmp_pos = position * item# shape[max_seq_len, d_model]pe = torch.zeros(max_seq_len, d_model)pe[:, 0::2] = torch.sin(tmp_pos)  # 偶数pe[:, 1::2] = torch.cos(tmp_pos)  # 奇数# shape: [max_seq_len, d_model] --> [batch, max_seq_len, d_model]pe = pe.unsqueeze(0)  # 在第一个维度上升维# 将位置编码pe注册为缓冲区self.register_buffer(name="pe", tensor=pe, persistent=False)def forward(self, x):batch, seq_len, d_model = x.shapepe = self.pereturn x + pe[:, :seq_len, :]
    
  • 相关解释

    1. 初始化参数解释

      d_model : 模型维度(embedding维度)

      max_seq_len : 是模型支持的最大序列长度,确保模型能够处理任意长度不超过 max_seq_len 的序列。

    2. 注册缓冲区

      self.register_buffer 方法

      通过将位置编码 pe 注册为缓冲区,可以在模型的前向传播中直接使用 self.pe,而不需要每次都重新计算。
      缓冲区不会被优化器更新,因此位置编码在训练过程中保持不变,这符合位置编码的设计初衷。

    3. 前向传播参数

      x : 输入序列,shape为 [batch_size, seq_len, d_model]

使用示例

  • 测试代码

    # 假设我们有一个大小为 (batch_size=32, seq_len=20, d_model=512) 的输入
    batch_size = 32
    seq_len = 20
    d_model = 512# 创建位置编码的实例
    pos_encoding_layer = PositionEncoding(d_model=d_model)# 生成随机输入数据
    input_data = torch.randn(batch_size, seq_len, d_model)# 获取带有位置编码的数据
    output_data = pos_encoding_layer(input_data)print(output_data.shape)  # 输出应为 (32, 20, 512)
    

    创建一个PositionEncoding类的实例,并通过传入一个随机生成的输入张量来获取添加了位置信息的输出张量。

    注意,PositionalEncoding 不改变输入序列的长度

http://www.xdnf.cn/news/1207.html

相关文章:

  • Lawrence Krauss 的“从无中诞生的宇宙”(Universe from Nothing)
  • MCP Host、MCP Client、MCP Server全流程实战
  • 耀百岁中医养生与上海隽生中医药研究中心达成战略合作——共筑中医养生科研创新高地
  • 乐视系列玩机---乐视1 x600系列线刷救砖以及刷写第三方twrp 卡刷第三方固件步骤解析
  • RK3588 ubuntu20禁用自带的TF卡挂载,并设置udev自动挂载
  • 学习思路分享---从0开始搭建基本web服务器
  • (一)初始Linux---------Linux的背景
  • spring中使用netty-socketio部署到服务器(SSL、nginx转发)
  • 【FPGA开发】Vivado开发中的LUTRAM占用LUT资源吗
  • 入门-C编程基础部分:17、typedef
  • 安卓投屏软件QtScrcpy
  • Node.js简介(nvm使用)
  • 删除不了jar包-maven clean package失败
  • 深入探索Spark-Streaming:从基础到核心编程
  • TCP/IP协议新手友好详解
  • 【以太网安全】——防护高级特性配置总结
  • 数字化转型“变形记”:中钧科技经营帮如何让企业长出“智慧骨骼”
  • 分部积分选取u、v的核心是什么?
  • 多态以及多态底层的实现原理
  • mysql日常巡检
  • JSP服务器端表单验证
  • Conceptrol: Concept Control of Zero-shot Personalized Image Generation(个性化图像生成)
  • 多骨干、多融合:RT-DETR 如何解锁主干网络新姿势?
  • qt.tlsbackend.ossl: Failed to load libssl/libcrypto.
  • 24-算法打卡-字符串-反转字符串II-leetcode(541)-第二十四天
  • java中值传递的含义
  • IDEA下载kotlin-compiler-embeddable特别慢
  • 从零开始配置 Zabbix 数据库监控:MySQL 实战指南
  • RFID手持机,助力固定资产高效管理
  • 工业以太网无线网桥:无线通信的工业级解决方案