当我们要学习人工智能的时候,我们需要学习很多的知识,比如机器学习、深度学习等。一般来说,机器学习是人工智能的核心知识,要想学好人工智能就必须重视机器学习的知识。在这篇文章中我们给大家介绍一下关于机器学习需要了解的知识。
当然,说到机器学习就必须要说一下机器学习算法,在机器学习算法中,尤其是神经网络被认为是新的人工智能革命的起因。而机器学习中涉及到了增强学习,那么什么是增强学习呢?数据驱动算法可以分为三类:监督式、非监督式和增强学习。监督式学习和非监督式学习通常用于执行诸如图像分类、检测等任务,虽然它们的精确度是显著的,但这些任务不同于我们所期望的智能。而这些就是增强学习的来源。而增强学习的原理还是很简单的,环境给agent一个正确的东西给予奖励,并且对于错误的东西来惩罚它。
下面我们就给大家介绍一下增强学习中的算法,有两种应用广泛的增强学习算法,分别是Q Learning和Deep Q Learning,其中Q Learning是一种应用广泛的增强学习算法。如果不进行详细的数学运算,给定的动作质量取决于agent处于什么状态。agent通常执行给予最大回报的操作。当然,在这个算法中,agent根据环境给予多少回报来学习每个动作的质量。每个环境的状态值以及Q值通常存储在表中。当agent与环境交互时,Q值从随机值更新到实际上有助于最大化回报的值。而Deep Q Learning则是Q Learning的拓展,这是因为Q Learning的使用表的问题在于它不能很好地扩展。如果状态数太高,该表将不适合于内存。这就是Deep Q Learning可以应用的地方。深度学习基本上是一种通用的近似机器,它能理解抽象的表示。深度学习可以用来近似Q值,也可以通过梯度下降学习Q值。
在增强学习中,在训练数据的情况下总会有经验回放,这是因为在训练神经网络时,数据不平衡起着非常重要的作用。如果一个模型被训练,当agent与环境交互时,就会出现不平衡。所以,所有状态以及相关数据都存储在内存中,神经网络可以随机选取一批交互和学习。
那么增强学习有什么延伸的方面呢?其实增强学习有很多的功能,能很好地处理许多事情,但是在反馈稀疏的地方通常会失败。agent不会长期探索实际有益的行为。有时,为了自身的缘故而不是直接尝试解决问题,需要采取一些行动。因为这样做可以让agent执行复杂的操作,基本上允许agent计划事情。在这种设置中,有两个Q网络。它们被表示为控制器和元控制器。 元控制器查看原始状态并计算要遵循的目标。 控制器与目标一起进入状态,并输出策略来解决目标。检查是否达成目标,并向控制器给予回报。 当片段结束或达到目标时,控制器停止。然后,元控制器选择一个新目标,并重复这个目标。
在这篇文章中我们简单给大家介绍了关于机器学习需要了解的知识,具体的内容就是关于增强学习的一些知识。通过这些内容我们可以更深入地了解深度学习的知识,希望这篇文章能够更好地帮助到大家。