深度强化学习输出值总是不变?

深度强化学习输出值总是不怎么变?

可能原因:

1.输入张量太小,导致网络梯度更新太慢,梯度消失;
2.奖励太小,梯度小,更新慢;
3.奖励太大,relu激活函数遇到大梯度会部分“失活”;

深度强化学习调试经验

1.设置专家经验,先进行模仿学习;
2.探索必须要全面,不然智能体止步不前;
3.探索范围也不要太大,不然垃圾经验太多导致智能体逐渐失去正确方向,经验池可以设定大一些,为开始训练经验大小的10 ~ 100倍即可。
5.要注意:深度强化学习也会陷入局部最优解,比如高维空间下的Q值可能有多个局部最优。
6.输入量必须归一化,Actor网络输出值也要归一化再送入Critic网络,比如Actor网络输出-1 ~ 1,送入Critic之前也是-1 ~ 1最好和Actor网络输出范围一致,对与环境的交互而言可以再做变换。
7.深度强化学习中的模仿学习:主要有行为克隆和逆向强化学习;行为克隆:专家经验做监督学习,也可以把专家经验放入经验池中进行学习,逆向强化学习:需要自学习奖励函数,专家和智能体同时做出动作,找到一种奖励函数(可以和环境相关,比如“学徒学习”:R(s) = w.T * S(t) ),奖励函数必须保证专家奖励大于智能体奖励,最终通过每次迭代,在这里插入图片描述
每次迭代时都使用当前的奖励函数进行强化学习,多次迭代后智能体会接近专家水平。

补充知识:

1.在深度学习中,没有绝对好的的优化器,只是对于大多数情况自适应优化器会好一些;
2.在深度学习中,引起局部最优的原因中鞍点要比局部最小点多得多,平坦区域大,而且难以克服,特别是对SGD而言;

  • 7
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
深度学习和强化学习是两种不同的机器学习方法,它们的主要区别在于学习的方式和目标。 深度学习是一种基于人工神经网络的机器学习方法,通过多层神经网络模拟人脑的神经元结构,从大量的标注数据中进行训练和学习。深度学习的目标是通过学习到的特征表示,对输入数据进行分类、回归或生成等任务。它主要关注于对输入数据的建模和预测,通过不断迭代优化模型参数来提高预测准确性。 强化学习是一种通过智能体与环境交互学习的机器学习方法。在强化学习中,智能体通过观察环境状态、采取行动和获得奖励来进行学习。强化学习的目标是通过学习到的策略,使智能体在环境中获得最大的累积奖励。强化学习关注于如何在动态环境中做出最优决策,通过与环境的交互来学习最优策略。 具体区别如下: 1. 数据来源:深度学习依赖于大量的标注数据进行监督学习,而强化学习通过智能体与环境的交互获得奖励信号进行学习。 2. 学习方式:深度学习是一种监督学习方法,通过最小化预测误差来优化模型参数。强化学习是一种无监督学习方法,通过试错和奖励信号来优化智能体的策略。 3. 目标:深度学习的目标是对输入数据进行预测、分类或生成等任务。强化学习的目标是通过与环境交互来学习最优策略,以获得最大累积奖励。 4. 数据依赖性:深度学习对大量标注数据的依赖较高,而强化学习可以在模拟环境中进行训练,不需要标注数据。 5. 应用领域:深度学习广泛应用于图像识别、语音识别、自然语言处理等领域。强化学习广泛应用于机器人控制、游戏智能和自动驾驶等领域。 需要注意的是,深度学习和强化学习并不是相互排斥的方法,它们可以结合使用。例如,在强化学习中使用深度学习模型作为智能体的策略网络,来学习复杂环境下的最优决策。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值