q-learning 学习总结

总结q-learning ,学习的地址https://www.jianshu.com/p/29db50000e3f?utm_medium=hao.caibaojian.com&utm_source=hao.caibaojian.com

 

 

q-learning 是一种行为计算的方法。

首先,所有的行为和这行为的后果已经确定下来,向一般在网上举的例子会用简单的迷宫做过程的讲解,现实中比较合适的例子是下棋,因为下棋的步骤行为比较多。

方法是运用两个矩阵做计算:

第一个是奖励矩阵R,这个状态矩阵y轴代表当前位置(也称为state),x轴代表下一个位置(也称为Action),矩阵的记录数据为奖励值,即距离达目的的数据表示值(也称为reward)。

第二个是经验矩阵Q,举证的维度和奖励矩阵R一样。矩阵的每一位代表从x轴到y轴对应位置这个行为能实现可以最后到达目的地的经验值。经验值是计算得到的,矩阵的初始值是0。

 

迭代计算后的矩阵为

最后的结果就是得到这个经验矩阵,然后对应从x轴到y轴的取最大经验值的路径走。计算的思路就是不管在哪个初始位置上,取当前一步的最大奖励加上已有第一步位置的下一步最大经验值,就好像我们在下棋的时候要多想几步一样,然后加的时候打个折扣。

 

也有用复杂一点的,就是将当前地经验值按比例加上:

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
联邦学习是一种分布式机器学习框架,其中多个本地设备或者节点在不暴露原始数据的情况下进行协作学习。在联邦学习中,每个本地设备仅仅使用本地数据来训练模型,然后将模型参数上传到中央服务器进行聚合,最终生成一个全局模型。联邦学习的优点在于保护了用户的隐私,同时提高了模型的泛化能力。但是,由于设备之间的差异和不可靠性,联邦学习也存在一些挑战,例如设备失效、网络延迟等问题。为了解决这些问题,需要使用优化算法对联邦学习进行优化。 Q-learning算法是一种基于值函数的强化学习算法,通常用于解决马尔可夫决策问题。在联邦学习中,我们可以使用Q-learning算法来学习设备之间的协作策略。具体来说,我们可以将每个设备看做一个智能体,使用Q-learning算法来学习设备之间的合作策略,从而优化联邦学习的性能。 Q-learning算法的核心思想是通过学习一个值函数来寻找最优策略。在联邦学习中,我们可以将每个设备的本地模型看做一个状态,将上传到中央服务器的模型参数看做一个行动,将模型的性能指标(如准确率)看做奖励。然后,我们可以使用Q-learning算法来学习一个Q值函数,该函数表示在一个状态下采取某个行动的长期收益。具体来说,我们可以使用以下公式来更新Q值函数: Q(s,a) = Q(s,a) + alpha * (r + gamma * max(Q(s',a')) - Q(s,a)) 其中,s表示当前状态,a表示当前行动,r表示当前奖励,s'表示下一个状态,a'表示下一个行动,alpha表示学习率,gamma表示折扣因子。在每个时间步,我们使用Q-learning算法来更新Q值函数,并根据当前的Q值函数选择行动。最终,我们可以使用学习到的Q值函数来进行联邦学习的优化。 总结来说,使用Q-learning算法可以将联邦学习看做一个马尔可夫决策过程,并通过学习一个Q值函数来优化联邦学习的性能。该方法可以有效解决设备之间的协作问题,并提高联邦学习的性能和稳定性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值