Policy Gradient——一种不以loss来反向传播的策

2019-07-25  本文已影响0人  CristianoC

1.前言

这次介绍的基于策略梯度的Policy Gradient的算法属实比之前的算法没那么好理解,笔者看完莫烦教程之后还是有许多细节没搞懂,又看了李宏毅教授的DRL Lecture才弄懂,希望能把他讲清楚。

2.核心算法

之前我们所学的DQN,Q-Learning都是通过计算动作得分来决策的,我们是在确定了价值函数的基础上采用某种策略(贪婪-epsilon)的方式去选取价值最大的动作。仔细一想可以得知其实这种方式是间接的,因为还需要通过价值来选取动作。

Policy Gradient就是一种直接的方法,他可以直接输出每种动作的概率进行直接的选择。这里有一点要注意,Policy Gradient没有误差,他不通过误差进行反向传播,它是通过观测信息选出一个行为直接进行反向传播。他利用reward奖励直接对选择行为的可能性进行增强和减弱,好的行为会被增加下一次被选中的概率,不好的行为会被减弱下次被选中的概率。举例如下图所示:输入当前的状态,输出动作的概率分布,选择概率最大的一个action作为执行的操作。

image
而一个完整的策略τ代表的是一整个回合中,对于每个状态下所采取的的动作所构成的序列,而每个回合episode中每个动作的回报和等于一个回合的回报值 image
image
通过以上可知π在参数为θ情况下时 τ 发生的概率:
image
我们可以看到概率是拆分为我们可以控制的(上图的红色部分,与自身actor有关)我们不可控制的(上图的黄色部分,来自环境)

得到概率之后我们就可以根据采样得到的回报值计算出数学期望。

image
得到奖励的数学期望后我们要做的自然就是max这个奖励的数学期望,如何做呢,就是Gradient Asent(注意是梯度上升不是梯度下降)这个期望。

这里我们要注意两点:首先R这个奖励期望不需要是可微分的,即使是不可微分也是可以做这个运算。另外这里用到一个技巧,就是公式推导的第二步,大家也可以直接看蓝色框背下来。


image

后面那项的梯度由于概率中我们只能控制之前我们说过跟actor有关的部分,所以后面那项就可以简化为:


image
所以最后整个式子就可以化为:
image

最后化出来的整个式子也十分地好理解,假如在某个state下采取的action最后的Reward为正的,那就增加最后一项的概率,反之如果Reward为负的,那就减少这项的概率。 所以在这里,如果reward为正,那就最大化这个好的动作的G概率。

3.Add a Baseline

image
image

我们来考虑一种情况,在游戏中可能我们的期望永远是正的,比如一场游戏某个好的动作可以得20分,而不好的动作也能得1分,这样会导致什么样的后果呢,我们可以看上图。

解决的办法就是让期望减掉一个Baseline,让一些不那么好的行为能得到一个负的反馈,也就是让我们的奖励减去一个b,这个b有很多取法,只要能达到目的就行。


image

4.总结

优点

缺点

参考:

  1. 李宏毅教授DRL Lecture https://www.youtube.com/watch?v=z95ZYgPgXOY
  2. 莫烦课程 http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html
上一篇下一篇

猜你喜欢

热点阅读