强化学习十大原则

作者 | David Sliver
编译 | Xiaowen

原则#1:评估(Evaluation)推动进步

客观,量化的评估推动了进步:
●评估指标的选择决定了进度的方向
●可以说是项目过程中最重要的单一决策

排行榜驱动的(Leaderboard-driven)研究:
●确保评估指标对应最终目标
●避免主观评估(例如人工检查)

假设驱动的(Hypothesis-driven)研究:
●提出一个假设:
○“Double-Q学习优于Q-learning,因为它减少了向上偏差(upward bias)”
●在广泛的条件下验证假设
●比较相似的现有stat-of-the-art技术
●寻求理解而不是排行榜绩效

“”

原则#2:可伸缩性(Scalability)决定成功

●算法的可伸缩性是其相对于资源的性能梯度
○给定更多资源,性能如何提高?

●资源可以是计算(computation),内存(memory)或数据(data)

●算法的可扩展性最终决定了它的成功与否
○图像

●可伸缩性始终(最终)比起点更重要

●给定无限资源,(最终)优化算法是最佳的

原则#3:通用性(Generality)未来证明算法

●不同的RL环境中,算法的通用性表现不同

●避免过度拟合当前任务

●寻求推广到未知未来环境的算法

●我们无法预测未来,但是:
○未来的任务可能至少与当前任务一样复杂
○当前任务遇到的困难很可能会增加

●结论:针对RL环境进行测试

原则 #4:信任Agent的经验

●经验(观察observations,行动actions,奖励rewards)是RL的数据

“”

●相信经验是唯一的知识来源
○总是有诱惑力来利用我们的人文专长(人类数据,功能,启发式,约束,抽象,域操作)

●从经验中学习似乎是不可能的
○接受RL的核心问题很难
○这是人工智能的核心问题
○值得努力

●从长远来看,从经验中学习总能赢得胜利

原则#5:状态(State)是主观的

●Agents应根据自己的经验构建自己的状态

“”

●Agent状态是先前状态和新观察的函数

“”

“”width="400"

●它是循环神经网络的隐藏状态

●从未根据环境的“真实”状态定义

原则#6:控制流(Control theStream)

●Agents生活在丰富的感觉运动数据流中
○Observations流入Agent
○Actions流出Agent

●Agent的操作会影响流

●控制功能=>控制流

●控制流=>控制未来

●控制未来=>可以最大化任何奖励

原则#7:值函数(Value Functions)建模世界

为什么要使用值函数?
●价值功能有效地总结/缓存未来
●将计划减少到恒定时间查找,而不是指数前瞻
●可以独立于其跨度进行计算和学习

学习多种值函数:
●有效地模拟世界的许多方面(控制流)
○包括后续状态变量
●多个时间尺度

避免在原始时间步骤对世界进行建模。

原则#8:规划(Planning):从想象的经验中学习

一种有效的规划方法:
●想象一下接下来会发生什么
○模型中状态的样本轨迹
●从想象的经验中学习
○使用我们应用于实际实验的相同RL算法

现在,关注值函数近似值。

原则#9:授权函数近似器(FunctionApproximator)

●差异化的网络架构是强大的工具,可以促进:
○丰富的状态表示
○不同的记忆
○不同的计划
○分层控制
○...

●将算法复杂性推入网络架构
○降低算法的复杂性(如何更新参数)
○提高架构的表现力(参数的作用)

原则#10:学会学习(Learn toLearn)

人工智能的历史显示了明确的进展方向:
●第一代:良好的老式人工智能
○手工预测
○什么都不学

●第二代:浅学习
○手工功能
○学习预测

●第3代:深度学习
○手工算法(优化器,目标,架构......)
○端到端地学习功能和预测

●第4代:元学习
○无手工
○端到端学习算法和功能以及预测

原文链接:
http://www.deeplearningindaba.com/uploads/1/0/2/6/102657286/principles_o...

本文转载自: 专知