当前位置: 首页 > ops >正文

七、深度学习——RNN

一、RNN网络原理

  • 文本数据是具有序列特性的。为了表示出数据的序列关系,需要使用循环神经网络(Recurrent Nearal Networks,RNN)来对数据进行建模,RNN是一个作用于处理带有序列特点的样本数据

1.RNN的计算过程

  • h表示隐藏状态,每一次的输入都会包含两个值:上一个时间步的隐藏状态,当前状态的输入值,输出当前时间步的隐藏状态和当前时间步的预测结果

实际上,字是重复输入到同一个神经元中的

2.神经元内部的计算过程

ht=tanh(Wihxt+bih+Whhht−1+bhh)h_t= tanh(W_{ih}x_t+b_{ih}+W_{hh}h_{t-1}+b_{hh})ht=tanh(Wihxt+bih+Whhht1+bhh)

  • WihW_{ih}Wih表示输入数据的权重
  • bihb_{ih}bih表示输入数据的偏置
  • WhhW_{hh}Whh表示输入隐藏状态的权重
  • bhhb_{hh}bhh表示输入隐藏状态的偏置
  • 最后对输出结果使用tanh激活函数进行计算,得到该神经元的输出

3.API

RNN = torch.nn.RNN(input_size, hidden_size, num_layer)
  • input_size:输入数据的维度,一般设为词向量的维度
  • hidden_size:隐藏层h的维数,也是当前层神经元的输出维度
  • num_layer:隐藏层h的层数,默认为1

将RNN实例化就可以将数据送入进行处理,处理方式如下:

output, hn = RNN(x, h0)
  • 输入数据:输入主要包括词嵌入的x,初始的隐藏层h0

    • x的表示形式为[seq_len, batch, input_size],即[句子的长度,batch的大小,词向量的维度]
    • h0的表示形式为[num_layers, batch, hidden_size],即[隐藏层的层数, batch的大小,隐藏层h的维数](初始化设置为全0)
  • 输出结果:主要包括输出结果output,最后一层的hn

    • output的表示形式为[seq_len, batch, input_size],即[句子的长度,batch的大小,词向量的维度]
    • hn的表示形式为[num_layers, batch, hidden_size],即[隐藏层的层数, batch的大小,隐藏层h的维数]
http://www.xdnf.cn/news/15393.html

相关文章:

  • 编程语言设计目的与侧重点全解析(主流语言深度总结)
  • 游戏框架笔记
  • 【小白量化智能体】应用5:编写通达信股票交易指标及生成QMT自动交易Python策略程序
  • 控制台打开mysql服务报错解决办法
  • 【STM32】什么在使能寄存器或外设之前必须先打开时钟?
  • 2025js——面试题(8)-http
  • YOLOv11开发流程
  • 为什么资深C++开发者大部分选vector?揭秘背后的硬核性能真相!
  • 【第一章编辑器开发基础第二节编辑器布局_3GUI元素和布局大小(3/4)】
  • SpringMVC3
  • JavaScript进阶篇——第二章 高级特性核心
  • 【笔记】chrome 无法打开特定协议或访问特定协议时卡死
  • Flink窗口处理函数
  • 0-1搭建springboot+vue的教务管理系统(核心源码)
  • Spring Boot 自带的 JavaMail 集成
  • Python在量化投资中的应用
  • 庸才的自我唤醒
  • Rust语言实战:LeetCode算法精解
  • Spring Boot 双数据源配置
  • 《解锁音频处理新姿势:探索Librosa的无限可能》
  • C++ 左值右值、左值引用右值引用、integral_constant、integral_constant的元模板使用案例
  • vue2/3生命周期使用建议
  • SpringBoot JAR 反编译替换文件
  • OneCode3.0 MCPServer:注解驱动的AI原生服务架构与实践
  • Docker部署语音转文字(STT)服务并接入Home Assistant
  • C++11 std::is_permutation:从用法到原理的深度解析
  • androidstudio 高低版本兼容
  • 破解 VMware 迁移难题:跨平台迁移常见问题及自动化解决方案
  • 【第六节】docker可视化工具portainer安装
  • Angular 框架下 AI 驱动的企业级大前端应用开