当前位置: 首页 > news >正文

【强化学习】——03 Model-Free RL之基于价值的强化学习

【强化学习】——03 Model-Free RL之基于价值的强化学习

\quad\quad
\quad\quad 动态规划算法是基于模型的算法,要求已知状态转移概率和奖励函数。但很多实际问题中环境

可能是未知的,这就需要不基于模型(Model-Free)的RL方法。

\quad\quad 其又分为:

  • 基于价值(Value-Based RL)的强化学习,学习并贪婪地选择值最大地动作(确定性策略)
  • 基于策略(Policy-Based RL)的强化学习,对策略进行建模和优化(随机性策略)

\quad\quad 本文先介绍基于价值的强化学习

一、不基于模型的“预测”——更新 V π ( s ) V_\pi(s) Vπ(s)

(一) 蒙特卡洛算法MC

  1. 主要思想

\quad\quad 通过大量采样来逼近真实值,用频率来估计概率。通过多次采样,使用一个事件发生的频率来替代其发生的概率,以解决状态转移概率未知的问题。

\quad\quad Agent与环境交互产生若干完整的轨迹(从初态到末态),通过对多条轨迹的回报进行平均,进而估计状态价值或动作价值。

  1. 整体思路

\quad\quad 模拟——抽样——估值

\quad\quad 强化学习的目标是寻找最优策略,方法是求 V π ( s ) V_\pi(s) Vπ(s) Q π ( s , a ) Q_\pi(s,a) Qπ(s,a)

  1. 实现

(1)策略评估

\quad\quad 初始化——选择一个 ( s , a ) (s,a) (s,a)

\quad\quad 模拟——使用当前策略 π \pi π,从 ( s , a ) (s,a) (s,a)进行一次模拟,随机产生一段轨迹

\quad\quad 抽样——获得这段轨迹上每个 ( s i , a i ) (s_i,a_i) (si,ai)的收获 G ( s i , a i ) G(s_i,a_i) G(si,ai)

G t = R t + 1 + γ R t + 2 + . . . + γ T − t − 1 R T G_t=R_{t+1}+\gamma R_{t+2}+...+\gamma^{T-t-1}R_T Gt=Rt+1+γRt+2+...+γTt1RT

V π ( s ) = E [ G t ∣ S t = s ] V_\pi(s)=E[G_t|S_t=s] Vπ(s)=E[GtSt=s]

\quad\quad 注意:实际上我们使用N个样本回报来估计期望回报,即 V π ( s ) ≈ 1 / N ∑ G t V_\pi(s)\approx1/N\sum G_t Vπ(s)1/NGt

\quad\quad 但在等待一个轨迹的过程中,会产生估计误差。

\quad\quad 我们可以使用真实回报来纠偏,使得新的估计=原有估计+学习率×实际回报和估计回报的误差

V ( S t ) ← V ( S t ) + α [ G t − V ( S t ) ] V(S_t)\leftarrow V(S_t)+\alpha[G_t-V(S_t)] V(St)V(St)+α[GtV(St)]

\quad\quad 直至预测的回报无限接近真实的回报

(2)策略优化

\quad\quad 如选择贪心地改进策略, π ( s ) = ˙ arg max ⁡ a q ( s , a ) \pi(s)\dot=\argmax_a q(s,a) π(s)=˙argmaxaq(s,a)

\quad\quad 优化 Q π ( s , a ) Q_\pi(s,a) Qπ(s,a) π ( s ) \pi(s) π(s)

(二)时序差分算法TD

\quad\quad MC要求所有采样序列都是完整的状态序列。如果没有完整的状态序列,可采用时序差分算法

  1. 引导

\quad\quad 由于没有完整的状态序列,因此收获的计算不能用 G t G_t Gt的公式。

\quad\quad 根据状态价值函数的定义,用 R t + 1 + γ V π ( S t + 1 ) R_{t+1}+\gamma V_\pi(S_{t+1}) Rt+1+γVπ(St+1)来替代 G t G_t Gt,作为TD的目标值

\quad\quad 这一过程称为引导,使只需要两个连续的状态和奖励,便可以尝试求解强化学习问题

  1. 时序差分的预测问题

\quad\quad 根据状态价值函数的定义 V π ( s ) = E [ G t ∣ S t = s ] V_\pi(s)=E[G_t|S_t=s] Vπ(s)=E[GtSt=s]

\quad\quad 对于蒙特卡洛算法, G t = R t + 1 + γ R t + 2 + . . . G_t=R_{t+1}+\gamma R_{t+2}+... Gt=Rt+1+γRt+2+...带入计算

\quad\quad 对于时序差分算法, G t = R t + 1 + γ V ( S t + 1 ) G_t=R_{t+1}+\gamma V(S_{t+1}) Gt=Rt+1+γV(St+1)带入计算

\quad\quad 从中也可以看出,时序差分方法是一种当前状态价值的有偏估计,而蒙特卡洛算法是无偏估计

\quad\quad 类似地,用误差学习方法进行纠偏从而对状态价值函数进行估计:

V ( S t ) ← V ( S t ) + α [ R t + 1 + γ V ( S t + 1 ) − V ( S t ) ] V(S_t)\leftarrow V(S_t)+\alpha[R_{t+1}+\gamma V(S_t+1)-V(S_t)] V(St)

http://www.xdnf.cn/news/892135.html

相关文章:

  • hbase资源和数据权限控制
  • 经典算法:回文链表
  • 开发在线问诊APP要注意什么?互联网医院系统源码、功能、合规全详解
  • MATLAB仿真:偏振光在光纤通信中的应用研究_可复现,有问题请联系博主
  • RocketMQ基础概念的理解
  • 28. Revit API:尺寸标注(Dimension)
  • C++STL-vector的使用
  • 非隔离电源方案
  • 【信息系统项目管理师-选择真题】2025上半年(第一批)综合知识答案和详解
  • 【Python训练营打卡】day44 @浙大疏锦行
  • 【PhysUnits】15.15 变量类型(variable.rs)
  • 前端没有“秦始皇“,但可以做跨端的王[特殊字符]
  • 驭码CodeRider 2.0 产品体验 — 搭建邮件服务
  • Web前端之原生表格动态复杂合并行、Vue
  • 农田水利如何「聪明」起来?Modbus转Ethernet IP破解设备互联
  • C语言| 指针在数组中的移动
  • qt ui 转python
  • 三维GIS开发cesium智慧地铁教程(3)entity实体
  • 岩石三轴试验机
  • Spring Boot-面试题(52)
  • 每日算法刷题Day23 6.5:leetcode二分答案3道题,用时1h40min(有点慢)
  • JS深入学习 — 循环、函数、数组、字符串、Date对象,Math对象
  • 前端面试四之Fetch API同步和异步
  • c++算法学习3——深度优先搜索
  • 【java面试】框架篇
  • snprintf函数用法及注意事项详解
  • Redisson简明教程—你家的锁芯该换了
  • 71 LV信息查看
  • DeepSeek私有化部署的理性抉择:谁需要?谁不必?
  • SSH 和 Telnet 介绍、区别与使用方法