分享

潮科技行业入门指南:深度学习理论与实战:提高篇(16)—— ​强化学习简介 (二)

 昵称535749 2019-03-25

TECH is the new sexy

编者按:本文节选自《深度学习理论与实战:提高篇 》一书,原文链接http://fancyerii./2019/03/14/dl-book/ 。作者李理,环信人工智能研发中心vp,有十多年自然语言处理和人工智能研发经验,主持研发过多款智能硬件的问答和对话系统,负责环信中文语义分析开放平台和环信智能机器人的设计与研发。

以下为正文。

目录

  1. 简介

  2. 策略评估(Policy Evaluation)

  3. 策略评估代码示例

  • gridworld.py

  • Policy Evaluation.ipynb

  5. 策略提升(Policy Improvement)

  • 策略提升定理

  6. 策略迭代(Policy Iteration)

  7. 策略迭代代码示例

  8. 价值迭代(Value Iteration)

  9. 价值迭代代码示例

  10. 通用策略迭代(Generalized Policy Iteration/GPI)

简介

动态规划是一种算法,对于简单的 MDP 问题可以用它来求解最优解。但是实际问题很少能用到这种算法,因为它的假设很难满足以及它计算复杂度太高了。不过学习这种算法依然很有用处,因为后面介绍的方法都想达到动态规划一样的效果,只不过它们能降低计算复杂度并且在非理想的环境下也可以使用。

这一节我们假设 MDP 是有限的,包括状态、行为和 Reward,并且环境完全由 𝑝(𝑠′,𝑟|𝑠,𝑎) 确定。如果读者学习过计算机的算法课程,可能也会学到动态规划算法,它的基本思想是:一个"大"的问题的最优解,可以分解成一些小的问题,并且把小问题的的最优解的组合起来得到大问题的最优解。本书后文很多算法都是动态规划算法。

使用动态规划来解决强化学习问题的核心是使用价值函数来搜索好的策略。如果有了最优价值函数(不管是状态价值函数还是状态价值函数),我们就可以用它来计算最优的策略。最优价值函数满足如下的贝尔曼方程:

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)

我们来理解一下这个公式,在状态 s 下最优的价值是什么呢?我们遍历所有可能的行为 a,得到Reward 值 𝑅𝑡+1 然后进入新的状态 𝑆𝑡+1 。这个过程由 𝑝(𝑠′,𝑟|𝑠,𝑎) 确定,所以加一个 𝔼 。当 t+1 时刻我们处于 𝑆𝑡+1 时,我们仍然要遵循最优的策略,所以第二项是 𝛾𝑣∗(𝑆𝑡+1) 。把 𝔼 根据期望的定义展开成求和就得到第二个等号。Q 的贝尔曼方程也是类似的:

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)

我们同样可以这样解读:在状态 s 采取 a,Agent 会得到 𝑅𝑡+1 和进入状态 𝑆𝑡+1 ,在这个状态时我们有很多选择,但是我们要选择最大的那个 a’。而动态规划就是根据上面的贝尔曼方程来得到迭代更新的算法。

策略评估(Policy Evaluation)

首先我们来计算一个给定的策略的价值函数 𝑣𝜋(𝑠) ,这叫策略评估(Policy Evaltuion),有时我们也把这个问题叫做预测(Prediction)问题。

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)

其中 𝜋(𝑎|𝑠) 是给定策略 𝜋 时,在状态 s 下采取行为 a 的概率。公式的期望 𝔼𝜋 说明是在策略 𝜋 下变量 𝑅𝑡+1 和 𝐺𝑡+1 的概率。

如果环境的动力系统 (𝑝(𝑠′,𝑟|𝑠,𝑎) )是完全已知的,而策略 𝜋(𝑎|𝑠) 也是已知的情况下,我们可以通过线性方程直接解出 𝑣𝜋(𝑠) 。因为假设状态 s 有 n 种可能,那么就是 n 个变量,n 个等式的线性方程,可以证明,如果 𝛾<1 ,则方程有唯一解。这是一个线性代数的问题,但是这里我们会介绍一种迭代算法,这和梯度下降的思路有一些类似。因为迭代算法更容易推广到动态规划之外的算法,所以我们需要学习这种方法。下图是算法的伪代码:

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)图:策略评估算法伪代码

这个算法过程如下:首先把所有的 𝑉0(𝑠) 都初始化成0,然后根据 𝑉0 计算 𝑉1 ,…,一直继续下去直到收敛。根据 𝑉𝑘(𝑠) 计算 𝑉𝑘+1(𝑠) 的公式如下:

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)

这个迭代算法的证明本书从略,有兴趣的读者可以参考这里。我们可以看一下收敛的时候,𝑉𝑘+1=𝑉𝑘,Δ=0 ,那么上面的迭代公式正好就是贝尔曼方程!有了上面的迭代算法,任何给定的策略 𝜋 ,我们都可以计算出它的价值函数。

策略评估代码示例

接下来我们用代码来实现上面的算法,在介绍具体算法之前,先介绍Grid World。

潮科技行业入门指南 | 深度学习理论与实战:提高篇(16)—— 强化学习简介 (二)图:Grid World

如上图所示,非终止状态共有 14 个 S={1,2,…,14} ,每个状态下都可以采取 4 个 Action, A={up,down,left,right},这些 Action 会确定(概率为1)的把 Agent 带到相应的位置,如果碰到墙了那就保持状态不变。因此 𝑝(6,−1|5,𝑟𝑖𝑔ℎ𝑡)=1  𝑝(7,−1|7,𝑟𝑖𝑔ℎ𝑡)=1 ,𝑝(10,𝑟|5,𝑟𝑖𝑔ℎ𝑡)=0 。左上和右下是结束状态(迷宫出口),如果没到结束状态,则 reward 是 -1,因此这个任务期望 Agent 尽快找到出口。注意:𝑝(6,−1|5,𝑟𝑖𝑔ℎ𝑡)=1 的意思是如果处于状态 5 并且 Action 是 right,那么它一定会进入状态 6 并且reward是 -1。因为概率和为 1,因此𝑝(6,1.5|5,𝑟𝑖𝑔ℎ𝑡)=0 ,𝑝(4,−1|5,𝑟𝑖𝑔ℎ𝑡)=0  。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多