都已经研究生毕业一年了,时间太快了吧……
2016年的研一末期,老板给确定了偏向视觉SLAM的方向,从此走向了一条自己瞎搞的不归路
多谢自己的瞎搞,靠着毕设混到了现在某机器人公司SLAM岗位的一口饭
由于自己头铁,完全靠着自己想象中的SLAM感觉走
回想起来,学到了很多,虽然自己做的SLAM真的很辣鸡
- 先上个装逼的渣渣宣传视频
https://v.youku.com/v_show/id_XNDI0NTU3NDAzNg==.html?spm=a2hzp.8244740.0.0
- 结构解析
- 使用硬件
双目摄像头 | *宝上的模组,双目同步输出 | 1 |
单线激光雷达 | 北醒 te01 | 1 |
电机驱动 | LM298N | 2 |
WIFI | MT7688 | 1 |
控制系统 | STM32F103C8T6 | 1 |
74HC245 | 1 | |
MPU9250 | 1 | |
ASM1117 | 1 | |
电源模块 | 10AH 12V | 1 |
- 实现功能
1.基本实现了开题报告时候吹下的牛逼
2.双目视觉+IMU松耦合里程计,激光扫描匹配建图
3.移动平台作为下位机,通过WIFI模块与上位机笔记本互相传递数据
4.下位机实现一套完整的控制、数据中继、时间戳软对齐等功能
5.上位机实现一套基于QT的控制界面,实现数据接收、遥控建图等功能
6.设计与3D打印了一些结构、画了PCB,调了一堆软硬件
- 硬件架构
- 软件架构
- QT上位机界面
QT的具体效果请看上面的视频,后面会介绍实现
- 嗯,改天从硬件设计到软件算法实现详细的开讲自己做的这个辣鸡小车车……