无人机SLAM双目摄像头的选择,我看了下小觅的双目摄像头,发现现在的双目摄像头已经很完善了(选择用的T265,说了原因)

我看了下小觅的双目摄像头,发现现在的双目摄像头已经很完善了,甚至都不需要你处理双目,都给你处理好了,无人机配上这么一个双目摄像头我感觉我还是很放心的。

开课吧的智能无人机课就是采用的小觅得双目摄像头嘛(现在第二期改用T265了,小觅似乎垮了)。

可见我这篇博文:https://blog.csdn.net/sinat_16643223/article/details/107784885

阿木实验室采用的英特尔T265双目摄像头。

ACfly跟我说有客户用它的飞控和英特尔t265做过,

GAAS用的structure core

liji用的ZED,北邮邓下面弄无人机的用的小觅彩色版

 

 

再总结下为什么用t265
acfly跟我说了有人用t265做了
阿木用的
GAAS群里有个人说t265可以直接输出位置信息
ZN无人机课程后来也改用t265,并且说T265做视觉定位是目前市面上效果最好的)当然还有的是组合使用的,T265和D435组合使用,似乎效果更好,realsense官方似乎也是推荐这么组合使用的。我也专门写了一篇博文:https://blog.csdn.net/sinat_16643223/article/details/107993560

PX4官方手册和APM官方手册给的VIO的例子都是用T265,也有现成的代码可用。这个应该分量够重了。

TB上一些个人弄的SLAM无人机也是用t265(我TB里有收藏,如下面两个图,这两个都已经确认是用的T265,可以看旺旺聊天记录)


 

 

看下面的聊天,似乎大家的选择主要是三种:小觅  英特尔的realsense    structure

当然我看到还有说ZED,但是他们说ZED需要cuda不方便。

我发现阿木实验室的其中一款SLAM无人机和GAAS都使用的是structure core!!!!

更正一下,这是PX4官方出的一款无人机。

 https://github.com/generalized-intelligence/GAAS/tree/master/hardware

我问了下li吉,他们双目摄像头也是用的小觅,看来高校也在采用这个。更正一下,他们用的ZED,邓祖下面一个弄无人机SLAM的用的小觅标准彩色版。

 

可以去看看他们在TB展示的效果:

https://detail.tmall.com/item.htm?spm=a230r.1.14.24.784e3d28eQdkXZ&id=557833086451&ns=1&abbucket=17

 

真的感慨很多传感器很强大了已经。你组装出一个SLAM无人机可能不是太难的事情,关键还是去把它吃透。

 

让人感觉像openmv,都不需要你去处理图像数据直接给你输出结果了。

 

 

这里也是说了小觅摄像头,realsense莫非就是英特尔的realsense t265 ?

https://www.bilibili.com/video/BV1at411J7rJ?from=search&seid=16657808345435718595

 

 

 

 

 

GAAS群里面对双目摄像头的一些讨论,我看到这里说t265可以出位姿SLAM

 

 

 

 

阿木实验室的TB店介绍T265时就说无需GPS即可向机器人提供位置,莫非它可以直接返回坐标?

其他的也这么介绍T265

 

 

 

阿木的

https://www.amovlab.com/videos/SQfRYHGW.html

这个视频的刚开头就说T265是直接输出位置数据的。

 

 

从这似乎也可以看书T265可以直接输出位置信息,可以给你弄出你的轨迹。我们用这些位置信息就可以拿去做定点了应该。这输出的还是三维的,对吧,我似乎连定高传感器都可以拿掉了。这样似乎可以直接用ACfly实现啊。感觉没必要花那么多钱去买别人的成品机,自己可以进行开发。有那些钱不如多买几个双目摄像头,反复炸,大胆试验。

https://www.intelrealsense.com/get-started-tracking-camera/

 

 

 

https://blog.csdn.net/baidu_36487340/article/details/103642312

我发现265这个位置坐标的想法和我之前想用激光雷达输出坐标的想法一样,最开始的作为原点。

 

 

 

卓翼智能用的小觅,基于机器视觉无人平台自主导航避障系统

http://www.droneyee.cn/index.php?m=content&c=index&a=show&catid=82&id=36

 

 

这有个用ZED的

https://www.zhihu.com/question/305353765

  • 3
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
在Ubuntu 18.04中使用笔记本摄像头跑真实环境,可以按照以下步骤进行: 1. 检查摄像头是否连接并正常工作。打开终端,运行以下命令: ``` ls /dev/video* ``` 如果摄像头已正确连接,则会显示类似 `/dev/video0` 的输出。 2. 安装ROS Kinetic和lsd-slam。打开终端,运行以下命令: ``` sudo apt-get install ros-kinetic-lsd-slam ``` 3. 启动摄像头节点。在终端中运行以下命令: ``` roscore ``` 然后再打开一个新的终端,运行以下命令: ``` roslaunch usb_cam usb_cam-test.launch ``` 这个命令将启动一个名为 `usb_cam` 的节点,并且会自动检测你的摄像头。如果一切正常,将会在终端中看到类似以下的输出: ``` [ INFO] [xxxxx]: Starting 'usb_cam_node' [ INFO] [xxxxx]: Started nodelet [/usb_cam_nodelet_manager], 1 workers. [ INFO] [xxxxx]: waitForService: Service [/usb_cam/set_camera_info] has not been advertised, waiting... [ INFO] [xxxxx]: waitForService: Service [/usb_cam/set_camera_info] is now available. [ INFO] [xxxxx]: waitForService: Service [/usb_cam/get_camera_info] has not been advertised, waiting... [ INFO] [xxxxx]: waitForService: Service [/usb_cam/get_camera_info] is now available. [ INFO] [xxxxx]: Starting Camera [/dev/video0] [ INFO] [xxxxx]: Using transport "raw" [ INFO] [xxxxx]: Loaded calibration file yaml:///path/to/camera_calibration.yaml on namespace [/usb_cam] [ INFO] [xxxxx]: Started publisher [/usb_cam/image_raw] with ros:Transport=raw [ INFO] [xxxxx]: Started publisher [/usb_cam/camera_info] with ros:Transport=raw ``` 4. 运行lsd-slam。在另一个新终端中运行以下命令: ``` roslaunch lsd_slam_viewer viewer.launch ``` 这个命令将启动lsd-slam,并且会打开一个名为 `lsd_slam_viewer` 的节点,以及一个图形界面,用于显示摄像头捕捉到的图像和slam结果。 5. 调整相机参数。如果你的摄像头没有进行过校准,你需要使用ROS自带的 `camera_calibration` 工具对其进行校准。你可以按照ROS的官方文档进行校准。 以上步骤完成后,你就可以使用笔记本摄像头跑真实环境了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值