Actor-Critic原理与PPO算法推导,李宏毅课程PPT讲解
下载需积分: 31 | PPTX格式 | 1.05MB |
更新于2023-12-31
| 71 浏览量 | 举报
Actor-Critic原理和PPO算法是强化学习中常用的算法之一。在这篇文章中,我们将详细介绍Actor-Critic原理和PPO算法的推导及其核心思想。
首先,让我们来了解一下Actor-Critic框架的工作原理。Actor-Critic算法中包含了两个部分,分别是Actor和Critic。Actor负责生成动作,而Critic则评估Actor生成的动作的好坏。
在这个框架中,环境(Env)会提供当前的状态,并根据Actor生成的动作给出奖励(Reward)。一个episode就是一场游戏的过程,我们的目标就是最大化获得的总奖励。
接下来,我们将介绍PPO算法的推导过程。在PPO算法中,当Actor的参数为θ时,某个动作a发生的概率为π(a|θ)。我们希望最大化这个期望值,即最大化E[π(a|θ)]。
然而,由于概率π(a|θ)是无法直接计算的,我们只能通过采样得到。假设在采样中,动作a出现的次数为N(a),总的奖励为R(a)。我们可以将N(a)视为(状态,动作)对的权重。
为了解决reward可能总是正的问题,我们需要引入一个baseline。如果某个action未被采样到,那么它出现的概率会下降。通过引入baseline可以解决这个问题。
除了引入baseline之外,我们还需要分配适当的credit,即给每个动作分配合适的权重。这是因为所有的动作可能对最终的总奖励有不同程度的贡献。
总结一下,Actor-Critic原理和PPO算法通过将强化学习问题分成Actor和Critic两个部分来解决。在PPO算法中,我们希望最大化Actor生成动作的期望值,但由于无法直接计算,需要通过采样得到。除此之外,我们还需要引入baseline来解决reward总是正的问题,并且需要分配适当的credit来给每个动作分配权重。
综上所述,Actor-Critic原理和PPO算法是强化学习中非常重要的算法,通过理解和应用这些算法,我们可以提高强化学习的效果。
相关推荐





AllesGute666
- 粉丝: 1
最新资源
- VB API函数大全手册(CHM版)
- C++语言编写的高效滤波程序解决方案
- Java Web实现银行余额查询系统的设计与实现
- MATLAB Simulink仿真:位置式与增量式PID控制研究
- Huffman编码及译码算法源码解析
- 数字电视原理及应用教程深度解析
- mysql++ 开发包发布版 3.0.9 兼容多平台使用
- 最新H3CNE中级网络工程师电子教材资料
- C++开发的学生选课管理系统功能介绍
- ICEODBG进位分析器:深入理解调用堆栈和消息传递
- Java开发的十二生肖大摆钟程序简介
- Java RFID API功能介绍与下载
- 用C语言打印可调节大小的无限菱形图案
- Protues仿真教程:从基础到实践编程兴趣提升
- Delphi2007财务货币格式化显示控件snccurrency
- SUN多线程编程指南:深入理解和实践(中文PDF版)