参与:黄小天、刘晓坤

强化学习教父 Richard Sutton 的经典教材《Reinforcement Learning:An Introduction》第二版公布啦。本书分为三大部分,共十七章,机器之心对其简介和框架做了扼要介绍,并附上了全书目录、课程代码与资料。下载《强化学习》PDF 请点击文末「阅读原文」。

  • 书籍百度网盘:https://pan.baidu.com/s/1miP38tM

  • 原书籍地址:http://incompleteideas.net/sutton/book/bookdraft2017nov5.pdf

  • 课程代码地址:https://github.com/ShangtongZhang/reinforcement-learning-an-introduction

  • 课程资料地址:http://incompleteideas.net/sutton/book/the-book-2nd.html

  • 当我们思考学习的本质时,首先映入脑海的想法很可能是通过与环境的交互进行学习。当一个婴儿玩耍时,挥舞手臂,左顾右盼,旁边没有老师指导他,他与环境却有着一种直接的感知连接。通过这种连接,他懂得了因果关系,行动带来的结果,以及为了达成目标所需做的一切。人的一生中,这样的交互成了我们关于环境和自身知识的主要来源。不管学习驾驶汽车,还是进行一场交谈,实际上我们自始至终观察着环境如何回应我们的所为,并通过自身行为影响当下情景。交互式学习几乎是所有学习与智能理论的基石。

    本书中我们提出了一种通过计算实现交互式学习的方法。我们没有直接理论化人类或动物的学习方式,而是探索理想的学习环境,评估不同学习方法的有效性。即,我们站在人工智能研究者或工程师的角度来解决问题。我们探讨了在解决科学或经济问题方面表现突出的机器的设计,通过数学分析或计算实验评估其设计。我们提出的这一方法称之为强化学习。相较于其他机器学习方法,它更专注于交互之中的目标导向性学习。

    第一部分:列表(Tabular)解决法

    本书第一部分我们以最简单形式描述了强化学习算法几乎所有的核心的概念,即状态和动作空间要足够小,保证近似值函数被表征为数组或表格。本案例中,这些方法经常能够发现正确方案,即找到最优值函数和最优策略。这与本书第二部分描述的、只能找到近似方案的近似法(但反过来它可有效用于解决更大的问题)形成了鲜明对比。

    本书第一部分的第一章描述了强化学习问题具体案例的解决方案,其中只有一个称为土匪问题(bandit problem)的单一状态。第二章描述了贯穿全书的一般问题制定——有限马尔科夫决策过程,其主要思想包括贝尔曼方程(Bellman equation)和价值函数。

    第三、四、五章介绍了解决有限马尔科夫决策问题的三类基本方法:动态编程,蒙特卡洛方法、时序差分学习。三者各有其优缺点。动态编程偏向数学,但是需要完整和精确的环境模型。蒙特卡洛无需模型,概念也很简单,但是不适用于一步一步的增量计算。时序差分方法也不需要模型,并且是完全增量的,但是分析异常困难。三者在效率和收敛速度方面也各有其不同。

    第六、七章介绍了上述三类方法如何结合在一起进而达到最佳效果。第六章中我们介绍了可使用适合度轨迹(eligibility traces)把蒙特卡洛方法和时序差分学习的优势整合起来。第七章中我们表明时序差分学习可与模型学习和规划方法(比如动态编程)结合起来,获得一个解决列表强化学习(tabular reinforcement learning)问题的完整而统一的方案。

    第二部分:近似求解法

    本书第二部分将扩展第一部分中介绍的列表法以应用于任意大的状态空间。我们希望应用强化学习的诸多任务中的状态空间都是组合性的和庞大的;例如,可能存在的图像的数量远远大于宇宙中的原子的总数。在这样的案例中我们甚至不能在无限的时间和数据极限内找到最优策略或最优值函数,因此我们的目标需要换成使用有限的计算资源寻找足够好的近似解。在本书的这一部分我们将探索多种近似解法。

    大型状态空间的问题不仅仅在于需要为大型的列表分配的内存,还有使其达到足够的准确率需要的时间和数据量。我们很多的目标任务中几乎每一个遇到的状态都是前所未见的。为了在这样的状态中做出合理的决策,从先前遇到的和当前状态在某种程度上相似的多种状态进行泛化是很有必要的。换一种说法,问题的关键就是泛化能力。状态空间的有限子集的经验如何有效地泛化以对相对大得多的子集生成足够好的近似解呢?

    幸运的是,从样本中泛化的问题已经被广泛地研究过,我们并不需要在强化学习中发明全新的方法;从某种程度上讲只需要将强化学习方法和已有的泛化方法结合起来。我们需要的泛化方法通常称为函数逼近,这是因为这种方法从所需的函数(例如,价值函数)中采样,然后从中泛化以构建完整函数的近似。函数逼近是监督学习的一个实例,也是机器学习、人工神经网络、模式识别和统计曲线拟合中最重要的研究课题。从理论上看,在这些领域中研究过的任何方法都可以用作强化学习算法中的函数逼近器,虽然实际上有些方法比起其它更加适用于强化学习。

    在强化学习中使用函数逼近涉及一些在传统的监督学习中不常出现的新问题,比如非稳定性(nonstationarity)、引导(bootstrapping)和目标延迟(delayed targets)。我们将在这部分的五章中先后介绍这些以及其它问题。我们首先集中讨论在线(on-policy)训练,而在第九章中的预测案例其策略是给定的,只有其价值函数是近似的,在第十章中的控制案例中最优策略的一个近似已经找到。函数逼近的离线(off-policy)学习的困难将在第十一章讨论。在这三章的每一章中我们都必须从基本原理开始,并复查函数逼近的学习目标。第十二章将介绍和分析适合度轨迹(eligibility traces)的算法机制,它能在多个案例中显著优化多步强化学习方法的计算特性。这一部分的最后一章将探索一种不同的控制、策略梯度的方法,它能直接逼近最优策略且完全不需要设定近似值函数(虽然如果使用了一个逼近价值函数,效率会高得多)。

    第三部分:更进一步

    在本书的最后一部分我们将把眼光放到第一、二部分中介绍标准的强化学习思想之外,简单地概述它们和心理学以及神经科学的关系,讨论一个强化学习应用的采样过程,和一些未来的强化学习研究的活跃前沿。

    以下是该书籍的目录:

    1 Introduction

    1.1 Reinforcement Learning

    1.2 Examples

    1.3 Elements of Reinforcement Learning

    1.4 Limitations and Scope

    1.5 An Extended Example: Tic-Tac-Toe

    1.6 Summary

    1.7 Early History of Reinforcement Learning

    I Tabular Solution Methods

    2 Multi-armed Bandits

    2.1 A k-armed Bandit Problem

    2.2 Action-value Methods

    2.3 The 10-armed Testbed

    2.4 Incremental Implementation

    2.5 Tracking a Nonstationary Problem

    2.6 Optimistic Initial Values

    2.7 Upper-Condence-Bound Action Selection

    2.8 Gradient Bandit Algorithms

    2.9 Associative Search (Contextual Bandits)

    2.10 Summary

    3 Finite Markov Decision Processes

    3.1 The Agent{Environment Interface

    3.2 Goals and Rewards

    3.3 Returns and Episodes

    3.4 Unied Notation for Episodic and Continuing Tasks

    3.5 Policies and Value Functions

    3.6 Optimal Policies and Optimal Value Functions

    3.7 Optimality and Approximation

    3.8 Summary

    4 Dynamic Programming

    4.1 Policy Evaluation (Prediction)

    4.2 Policy Improvement

    4.3 Policy Iteration

    4.4 Value Iteration

    4.5 Asynchronous Dynamic Programming

    4.6 Generalized Policy Iteration

    4.7 Eciency of Dynamic Programming

    4.8 Summary

    5 Monte Carlo Methods

    5.1 Monte Carlo Prediction

    5.2 Monte Carlo Estimation of Action Values

    5.3 Monte Carlo Control

    5.4 Monte Carlo Control without Exploring Starts

    5.5 O-policy Prediction via Importance Sampling

    5.6 Incremental Implementation

    5.7 O-policy Monte Carlo Control

    5.8 *Discounting-aware Importance Sampling

    5.9 *Per-reward Importance Sampling

    5.10 Summary

    6 Temporal-Dierence Learning

    6.1 TD Prediction

    6.2 Advantages of TD Prediction Methods

    6.3 Optimality of TD(0)

    6.4 Sarsa: On-policy TD Control

    6.5 Q-learning: O-policy TD Control

    6.6 Expected Sarsa

    6.7 Maximization Bias and Double Learning

    6.8 Games, Afterstates, and Other Special Cases

    6.9 Summary

    7 n -step Bootstrapping

    7.1 n-step TD Prediction

    7.2 n-step Sarsa

    7.3 n-step O-policy Learning by Importance Sampling

    7.4 *Per-reward O-policy Methods

    7.5 O-policy Learning Without Importance Sampling:

    The n-step Tree Backup Algorithm

    7.6 *A Unifying Algorithm: n-step Q()

    7.7 Summary

    8 Planning and Learning with Tabular Methods

    8.1 Models and Planning

    8.2 Dyna: Integrating Planning, Acting, and Learning

    8.3 When the Model Is Wrong

    8.4 Prioritized Sweeping

    8.5 Expected vs. Sample Updates

    8.6 Trajectory Sampling

    8.7 Real-time Dynamic Programming

    8.8 Planning at Decision Time

    8.9 Heuristic Search

    8.10 Rollout Algorithms

    8.11 Monte Carlo Tree Search

    8.12 Summary of the Chapter

    8.13 Summary of Part I: Dimensions

    II Approximate Solution Methods

    9 On-policy Prediction with Approximation

    9.1 Value-function Approximation

    9.2 The Prediction Objective (VE)

    9.3 Stochastic-gradient and Semi-gradient Methods

    9.4 Linear Methods

    9.5 Feature Construction for Linear Methods

    9.5.1 Polynomials

    9.5.2 Fourier Basis

    9.5.3 Coarse Coding

    9.5.4 Tile Coding

    9.5.5 Radial Basis Functions

    9.6 Nonlinear Function Approximation: Articial Neural Networks

    9.7 Least-Squares TD

    9.8 Memory-based Function Approximation

    9.9 Kernel-based Function Approximation

    9.10 Looking Deeper at On-policy Learning: Interest and Emphasis

    9.11 Summary

    10 On-policy Control with Approximation

    10.1 Episodic Semi-gradient Control

    10.2 n-step Semi-gradient Sarsa

    10.3 Average Reward: A New Problem Setting for Continuing Tasks

    10.4 Deprecating the Discounted Setting

    10.5 n-step Dierential Semi-gradient Sarsa

    10.6 Summary

    11 O-policy Methods with Approximation

    11.1 Semi-gradient Methods

    11.2 Examples of O-policy Divergence

    11.3 The Deadly Triad

    11.4 Linear Value-function Geometry

    11.5 Stochastic Gradient Descent in the Bellman Error

    11.6 The Bellman Error is Not Learnable

    11.7 Gradient-TD Methods

    11.8 Emphatic-TD Methods

    11.9 Reducing Variance

    11.10 Summary

    12 Eligibility Traces

    12.1 The -return

    12.2 TD()

    12.3 n-step Truncated -return Methods

    12.4 Redoing Updates: The Online -return Algorithm

    12.5 True Online TD()

    12.6 Dutch Traces in Monte Carlo Learning

    12.7 Sarsa()

    12.8 Variable and

    12.9 O-policy Eligibility Traces

    12.10 Watkins's Q() to Tree-Backup()

    12.11 Stable O-policy Methods with Traces

    12.12 Implementation Issues

    12.13 Conclusions

    13 Policy Gradient Methods

    13.1 Policy Approximation and its Advantages

    13.2 The Policy Gradient Theorem

    13.3 REINFORCE: Monte Carlo Policy Gradient

    13.4 REINFORCE with Baseline

    13.5 Actor{Critic Methods

    13.6 Policy Gradient for Continuing Problems

    13.7 Policy Parameterization for Continuous Actions

    13.8 Summary

    III Looking Deeper

    14 Psychology

    14.1 Prediction and Control

    14.2 Classical Conditioning

    14.2.1 Blocking and Higher-order Conditioning

    14.2.2 The Rescorla{Wagner Model

    14.2.3 The TD Model

    14.2.4 TD Model Simulations

    14.3 Instrumental Conditioning

    14.4 Delayed Reinforcement

    14.5 Cognitive Maps

    14.6 Habitual and Goal-directed Behavior

    14.7 Summary

    15 Neuroscience

    15.1 Neuroscience Basics

    15.2 Reward Signals, Reinforcement Signals, Values, and Prediction Errors

    15.3 The Reward Prediction Error Hypothesis

    15.4 Dopamine

    15.5 Experimental Support for the Reward Prediction Error Hypothesis

    15.6 TD Error/Dopamine Correspondence

    15.7 Neural Actor Critic

    15.8 Actor and Critic Learning Rules

    15.9 Hedonistic Neurons

    15.10 Collective Reinforcement Learning

    15.11 Model-based Methods in the Brain

    15.12 Addiction

    15.13 Summary

    16 Applications and Case Studies

    16.1 TD-Gammon

    16.2 Samuel's Checkers Player

    16.3 Watson's Daily-Double Wagering

    16.4 Optimizing Memory Control

    16.5 Human-level Video Game Play

    16.6 Mastering the Game of Go

    16.6.1 AlphaGo

    16.6.2 AlphaGo Zero

    16.7 Personalized Web Services

    16.8 Thermal Soaring

    17 Frontiers

    17.1 General Value Functions and Auxiliary Tasks

    17.2 Temporal Abstraction via Options

    17.3 Observations and State

    17.4 Designing Reward Signals

    17.5 Remaining Issues

    17.6 Reinforcement Learning and the Future of Articial Intelligence

    本文为机器之心编译,转载请联系本公众号获得授权。 返回搜狐,查看更多

    责任编辑:

    平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
    阅读 ( )