![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
练习
文章平均质量分 82
小雅不采薇
机器学习的小白(小黑也可以)
一直想用强化学习做狗,做狗还是作狗?
展开
-
Webots搭建强化学习二轮避障小车(看看吧 蛮详细的)
此文为使用webots搭建二轮机器人并进行避障设计的全过程,各部分足够详细,对于初学者能起到不少帮助。同时也包含强化学习DQN算法进行避障的尝试。有兴趣可以一看。原创 2023-01-12 00:09:03 · 4483 阅读 · 19 评论 -
百元级树莓派pico四足机器狗设计(并联腿结构)持续更新
基于树莓派pico设计的舵机并联腿机器狗原创 2022-06-16 22:40:49 · 3744 阅读 · 12 评论 -
cartpole强化学习DQN实战
本文章通过keras实现DQN算法来解决倒立摆的平衡问题一.环境cartpole是一个经典的环境,可以验证许多的算法。这次我用的是cartpole-v0,一个离散动作空间的倒立摆环境,该环境有两个动作,即左和右,并且包含环境的四个状态观测值。然后就瞅瞅这个环境:黑色的载体可以左右移动,来保持平衡杆直立然后看一下gym官方的描述:这里面尤其要注意的一点就是关于“Reward”的描述,每一步都给“1”分的回报,而且最关键的是,即使这一步导致一轮交互结束了,也给予“1”分的回报。这样显然是不可取的原创 2021-01-26 13:32:05 · 1380 阅读 · 6 评论 -
DQN强化学习 MountainCar Deep Q-Learning
虽则你我被每粒星唾弃,我们贫乏却去到金喜。 ———七百年后这篇文章关于神经网络的Qlearning实现,Qlearning的一些方法概念写在第一篇文章 “强化学习:Q表格方法”里:文章链接: https://blog.csdn.net/weixin_43968987/article/details/112959287对于Qlearning的方法,适用于动作空间是离散的环境,比如说象棋中的棋子,只能以有限的运动状态运动。我们可以看到,使用表格的方法解决较为复杂的环境,很容易使得表格变得很大,因为原创 2021-01-23 18:52:44 · 1291 阅读 · 8 评论 -
强化学习:Q表格方法(Qlearning and Sarsa)
无需要快乐原创 2021-01-21 18:08:00 · 8316 阅读 · 8 评论