使turtlebot在navigation时规避“看不到的”障碍物

使turtlebot规避“看不到的”障碍物

使用激光和顶相机可以规避一部分障碍物但是效果不是很好,在擦肩而过的状态时可以完成,但当障碍物在正中心时,会出现多次转圈情况,这是因为视觉的范围有限,约为机器人前方一平方米的范围,这就有一个矛盾出现,机器人必须足够靠近障碍物时才可以看到障碍物,而这时对于路径规划会有很高的失败率,即使把膨胀距离和安全范围减小到0.05也不是有很好的性能。
所以考虑使用一个平行与地面的kinect来完成激光和任务,并且因为有点云数据,可以通过获取kinect的scan和points来导航(可能kinect导航不如hokuyo?需要测试)。
实现方式:

kinect:
data_type: PointCloud2
topic: /camera/depth_registered/points
marking: true
clearing: true
min_obstacle_height: 0.05
max_obstacle_height: 0.2

注意高度,如果设置为0就会出现地面全部都是障碍物的情况。0.05是必要的。amcl.launch需要将一些false设置为true。
启动顺序:
minima.launch
amcl_demo.launch map_file
view_navigation.launch
go_to_special_point_on_map.py

存在问题:依然是只有当物体在相机视线范围内才可以看到障碍物,当机器人在障碍物附近转过一定角度时就会丢失障碍物目标,此时路径规划是否(?)会出现偏差。
好处:
视野范围大,可以看到远的东西,尽早规避。
坏处:
需要重新考虑安置问题,需要高于机械臂,并且考虑视线范围,足够看到机器人行进前方的障碍物,高度问题(!!!!!)
或者:
使用上方的相机视角对下方进行弥补(?)添加两个相机的points(或许可以,考虑)

另一种思路:
产生一些虚拟激光数据来描述障碍物,将这个虚拟激光数据添加.yaml中。
进度:
可以在现有地图上产生一些虚拟的激光数据,不过数据的range和角度看起来不是很好,在机器人正对的时候没有数据的情况(?),看起来是机器人侧对障碍物时才有数据。
好处:
稳定,全局描述。
坏处:
可能,实时性问题不好处理,现在是从一个.yaml文件中读取一个预先描述的障碍物。

下一步:
考虑平行地面的相机的放置位置,必须与机械臂协调。
如果无法实现两个相机的配置,考虑引入虚拟激光数据。

[1] :https://blog.csdn.net/sunyoop/article/details/78210891
[2] :https://github.com/yujinrobot/korus/blob/hydro-devel/korus_meta/resources/launch/components/virt_sensor.launch
[3]:https://github.com/yujinrobot/yujin_ocs/blob/devel/yocs_virtual_sensor/launch/standalone.launch
[4]:https://groups.google.com/forum/#!topic/ros-sig-navigation/uN3PRLfY040
http://wiki.ros.org/teb_local_planner/Tutorials

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值