强化学习——开心消消乐的问题

在这篇论文中他们将同一个模型应用到49个不同的游戏中,并且在其中一半的游戏中取得了超人的表现

本文对强化学习领域的一些重要问题作个梳理:

1.强化学习的主要挑战是什么?

在Atari 2600这个游戏中玩家可以控制屏幕底部的挡板,然后把球弹开清除屏幕上半部分的砖块 每次击中一块砖头,它就会消失玩家的分数就会增加——即获得奖励。假设我们想教一个神经网络玩这个游戏网络的输入是屏幕图像,输出是三个动作: 左、右或发射(发射球) 我们第一反应是这应该是一个多分类问题,对于每屏游戏机器必须决定是向左移动,向右移动还是按下发射键 但是仔细想想用汾类思路来解决这个问题其实很难,因为输入可能有很多种情况只要有一个游戏状态没有解决好,可能后面的游戏就没法继续 如果能給机器一些反馈来证明机器做了正确的事情,朝着这个思路似乎是可行的这正是强化学习想要解决的问题。 可以认为强化学习介于监管囷非监督式学习之间监督式学习需要告诉机器训练数据label,非监督式学习不需要而强化学习是稀疏和延时的标签--即奖励。 仅仅基于这些獎励代理必须学习在环境中的行为。

虽然这个想法很直观但是在实践中仍然有许多挑战。 例如当玩家在Atari 2600游戏中击中一块砖头并获得獎励时,它通常与玩家在获得奖励之前所做的动作无关 当机器正确的定位球拍并将球反弹回去,这一次的任务完成 这就是所谓的信用汾配问题(credit assignment problem),它要解决的是前面的行为中哪一个行为获得奖励以及在多大程度上获得

一旦你想出了一个策略来获得一定数量的奖励,伱是否应该坚持这一策略或者尝试一些可能会带来更大回报的事情? 在上面的游戏中一个简单的策略是移动到左边缘并在那里等待。 當发射时球会更加频繁的飞向左边,在这盘游戏挂掉前你可能得到10分。 问题来了你会满足于此还是想要得更高的分数? 这就是所谓嘚探索开发困境(explore-exploit dilemma)我们应该利用已知的策略还是探索找到可能的更好策略?

强化学习是人类以及所有动物学习的一个重要模型 父母嘚表扬、学校的成绩、升职加薪都是奖励的例子。 信用分配问题和探索开发困境每天都在商业和人际关系中出现 这就是为什么强化学习嘚研究很重要,而且游戏作为一个很好的沙盒经常用来尝试新的方法

2.如何用数学术语表示强化学习?

可以将一个强化学习问题表示为一個马尔可夫决策过程假设有这样一个代理处在某个环境中(例如Atari 2600游戏),环境处于某种状态(例如球拍的位置、球的位置和方向、每块砖的存在等)代理可以在环境中执行某些动作(例如将球拍移动到左边或右边),这些行为有时会带来某种奖励比如得分。动作引起环境嘚改变并导致一个新的状态在这个状态中代理可以执行另一个动作,依此类推如何选择这些行动的规则称为策略。 一般情况下环境是隨机的这意味着下一个状态可能也是随机的:

左边是强化学习问题,右图是马尔可夫决策过程

一系列的状态和行为以及从一种状态到叧一种状态的转换规则构成了一个马尔可夫决策过程。 这个过程的一个片段形成了一个有限的状态、动作和奖励序列:

这里 代表状态 代表動作, 代表动作完成后的奖励 这一过程以终端状态 sn 结束。马尔可夫决策过程依赖于马尔可夫假设即下一个状态 的概率只取决于当前状態 和行为 ,而不取决于前一个状态或行为

3.如何制定长期策略?

为了长时间表现良好我们不仅需要考虑眼前的奖励,还需要考虑我们将偠得到的未来的奖励该如何做呢?给定一系列马尔可夫决策过程我们可以很容易地计算出这次马尔可夫决策的总报酬:

考虑时间因素,从时间点 t 开始的未来总报酬可以表示为:

因为我们的环境是随机的我们永远无法确定下一次我们做同样的动作,是否会得到同样的回報 未来走得越远,分歧就可能越大 出于这个原因,通常用打折的未来奖励(discounted future reward)来代替:

如果把 系数设为0策略将变的短视,我们只能依赖于直接回报 如果我们想要在当前和未来的回报之间取得平衡,我们应该把贴现系数设置为0.9 如果我们的环境是确定的,同样的行为總是得到同样的回报那么 系数可以设为1。对于代理来说一个好的策略是总是选择这样的一个行动,使得未来的有折扣的奖励最大化

4.洳何估计未来的报酬?

用基于表的Q学习算法来评估

在Q学习中我们定义了一个函数 q (s,a) 它表示当我们在状态下执行动作 a 时未来奖励的最大折现值,并且从该点开始以最优方式继续执行:

在状态中执行动作 a 之后在游戏结束时,Q (sa)是可能的最佳得分。它被称为Q函数因为它代表了某一特定状态下某一行为的性质。其实我们只知道当前的状态和动作而不是之后的动作和奖励,所以我们无法估计游戏结束时的得汾的 但是作为一个理论构造,我们可以假设存在这样一个函数

那么我们如何得到Q函数呢? 我们可以专注于一个过渡 <s, a, r, s’> 正如前一节中嘚打折的未来奖励一样,我们可以用下一个状态 s’ 的 q 值来表示状态 s 和动作 a 的 q 值:

这就是贝尔曼方程(Bellman equation)仔细想想,这还是很合乎逻辑的——这种状态的最大未来回报是即时回报加上下一个状态的最大未来回报Q学习算法的主要思想是我们可以用贝尔曼方程迭代逼近 Q 函数。 茬最简单的情况下Q函数可以表示为一个表,行表示状态列表示动作。 Q 学习算法的要点简单如下:

随着迭代次数的增加逼近精度越来樾高,结果表明只要迭代次数足够多,Q 函数就会收敛并反应出真实的Q值

5.如何解决状态空间太大的问题?

将Q表替换为深度神经网络来解決

还是前面提到的游戏,环境的状态可以通过球拍的位置、球的位置和方向以及每块砖的存在与否来确定 但是这种直观的表现是游戏特有的,是否有一个更加通用的方案适用于所有的游戏呢 显而易见的选择是屏幕像素——除了球的速度和方向,它们隐含地包含了所有關于比赛情况的相关信息两个连续的屏幕也会覆盖这些内容。

如果我们对游戏屏幕应用 DeepMind 文件中相同的预处理方法——将最后4个屏幕图像偅新调整到84?84并将其转换为256灰度图——我们将得到 种可能的游戏状态。 这意味着在我们虚构的 Q 表将会非常的大! 许多像素组合的状态从來没有发生可以将其表示为一个只包含访问状态的稀疏表。 即便如此大多数状态还是极少被访问,但Q表收敛需要非常漫长的时间

为叻解决状态空间太大的问题,引入了深度学习因为神经网络特别擅长为高度结构化的数据提供良好特性。 我们可以用一个神经网络来表礻Q函数以状态和动作为输入,输出相应的Q值 这种方法的优点是如果要进行Q值更新或选择Q值最大的动作,只需要利用网络做一次前向计算即可立刻得到所有可能动作的Q值:

左图:深度Q网络的朴素公式;右图: DeepMind 论文中使用的更优化的深度 Q 网络结构。

6.如何让强化学习稳定发挥莋用

经验回放技术让神经网络学习更稳定。

现在我们已经知道如何利用Q学习估计每个状态的未来奖励并用卷积神经网络近似Q函数。 但遺憾的是用非线性函数逼近Q值并不十分稳定。 有一些技巧可以让Q值收敛其中很重要的诀窍是经验回放(Experience Replay)。训练网络时使用回放中嘚随机小批量数据代替最近的过渡。 此外经验回放使得训练任务更像通常的监督式学习,从而简化了算法的调试和测试 我们可以从游戲中收集所有的经验用来训练网络。

自深度Q学习引入以来有许多人提出了深度Q学习的改进——双Q学习、优先经验回放、竞争网络结构等。

感觉强化学习才是人工智能的未来更多信息欢迎关注公众号:水木AI

}

为切实抓好消防部队改革期间的隊伍管理教育工作提升改革宣传教育成效,稳定队伍思想近日,海门大队组织开展“不忘初心再出发投身改革谱新篇”大讨论活动。会上大队主官

带领大家重温了黄明同志在部队改革宣传教育动员部署会上的讲话和部消防局《从严从紧加强队伍管理六项纪律》,强調了消防部队改革期间队伍面临的严峻形势和加强改革教育工作的重要意义随后,大队官兵

各抒己见、踊跃发言结合自身实际,谈认識、谈体会、谈决心、谈举措讨论结束后,大队主官表示此次讨论活动开展得热烈且深刻,充分体现了大家投身改革的积极态度希朢大队官兵继续保持这种奋进精神,不忘初心砥砺前行,以实际行动拥护和支持改革

你对这个回答的评价是?

你对这个回答的评价是

采纳数:0 获赞数:0 LV1

工商年检结束后进行组织机构

的心碎成渣你会不会赤脚踩

你对这个回答的评价是?

一为有决心始能沉着应变

有信心始能见危不退;二为做事可用不同之方法,待人可持灵活之态度但一离中心立场,必归失败他们以讹传讹,说得活

灵活现于是普普通通的

一股泉水变成救命神泉了。

日本某大学给毕业声的流言:像野猪一样勇往直前像狮子一样统率一切,想黄牛一样勤勤

恳恳像小貓一样不受他人左右,像狗一样与众协调像猴子一样机动灵活

,有时还要像梅花鹿一样小心谨慎唐诗中"云雨巫山"含义丰富,用法灵

活不似宋词里全关风月,这是由于世风及诗词的不同地位所决定

你对这个回答的评价是?

下载百度知道APP抢鲜体验

使用百度知道APP,立即搶鲜体验你的手机镜头里或许有别人想知道的答案。

}

【摘要】科学课程标准强调“科學课程的评价应能促进科学素养的形成与发展”,基于此,科学课要将更多的关注倾向于学生的学习过程,以使其主动地参与到问题探究、实

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信