目标检测与位姿估计
文章平均质量分 78
小白 AI 日记
昨天院子里来了一只左眼是蓝色右眼是橙色的小猫
展开
-
目标检测与位姿估计(二十三):OpenCV+Aruco完成目标检测
一份识别图像图像中所有Aruco的代码#include <opencv2/core/core.hpp>#include <opencv2/imgproc/imgproc.hpp>#include <opencv2/highgui/highgui.hpp>#include <opencv2/opencv.hpp>#include <iostream>#include <opencv2/aruco.hpp>#include原创 2021-11-03 22:11:57 · 2210 阅读 · 1 评论 -
目标检测与位姿估计(二十二):浅谈跟踪任务特性
一、分类单目标跟踪 - 给定一个目标,追踪这个目标的位置。多目标跟踪 - 追踪多个目标的位置。Person Re-ID - 行人重识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合。MTMCT - 多目标多摄像头跟踪(Multi-target Multi-camera Tracking),跟踪多个摄像头拍摄的多个人(较为xx的一类工作原创 2021-10-22 22:44:16 · 834 阅读 · 0 评论 -
目标检测与位姿估计(二十一):跟踪算法对目标检测系统的补充
听了场关于“从判别式目标跟踪到视频目标分割”的报告,有一点想法。目标检测和目标跟踪的异同基本转载至:目标检测(Object Detection)和目标跟踪(Object Tracking)的区别 - 知乎,请点赞原博客,谢谢。密集跟踪与稀疏跟踪角度论述目标跟踪就像你跟踪某个人,一直尾随着他。我们在动画图像(.gif)或者视频中跟踪一个目标是如何移动的,它要到哪里去,以及它的速度。实时锁定一个(一些)特定的移动目标。有两种方式来“跟踪”一个目标。密集跟踪(a series detectio原创 2021-10-21 21:11:59 · 884 阅读 · 1 评论 -
目标检测与位姿估计(二十):使用GPU版的OpenCV
ZED或者OpenCV在使用GPU时都需要OpenCV在编译时支持CUDA工具的选项开启,下面是我的cmake命令此外这里也包含了contrib库的扩展安装cmake \-D WITH_CUDA=ON \-D WITH_VTK=OFF \-D WITH_MATLAB=OFF \-D BUILD_DOCS=ON \-D CMAKE_BUILD_TYPE=RELEASE \-D CMAKE_INSTALL_PREFIX=/usr/local \-D OPENCV_PYTHON3_VER原创 2021-10-09 22:06:01 · 1162 阅读 · 0 评论 -
目标检测与位姿估计(十九):ROS通信
参考《ROS机器人程序设计》(原书第2版):但是发现其中的一些命令并不能实现正确的结果,且由于版本的问题,一些配置信息不能满足当前的需要。my system : 在virtualBox下导入的RosIndigo32Bits集成环境,内核为Ubuntu14.04 LTS在这个系统默认的只安装了vi,使用之前需要先安装vim,不然后期将无法使用vim打开CMakeLists.txt文件。当然也可以安装其他编译器。首先建立工作空间: $mkdir -p ~/dev/catkin_ws..转载 2020-10-13 10:07:45 · 793 阅读 · 0 评论 -
目标检测与位姿估计(十八):组合数学之图论
基础知识部分这里就不做过多的介绍了,如需要补充可参考:https://blog.csdn.net/saltriver/article/details/54428685比较重要的基础知识的回顾:度:是该节点延伸边的数量图可以表示为稀疏矩阵的形式,方便储存和遍历,且借由矩阵性质操作也很方便遍历的方法主要有深度优先和广度优先两种方式,分别使用了queue和stack来完成,前者先进先出,后者后进先出最小生成树有两种生成方法:Kruskal法与Prim法。前者依靠全局最小边优先原则,后者依靠节点局部最小原创 2020-10-11 14:16:08 · 263 阅读 · 0 评论 -
目标检测与位姿估计(十七):八叉树
首先展示一下它是什么样子的,有个直观的感受原创 2020-10-10 15:27:23 · 325 阅读 · 0 评论 -
目标检测与位姿估计(十五):将深度图转换为pcd文件
关于pcl工具我们之前介绍了很多种使用它的方法:python语言接口以及C++接口,甚至于ROS的版本。最后我选择了ROS版本,原因吗当然是方(lan)便(duo)。于是就需要自己写一个深度转化为pcd格式的接口。pcd文件很简单,只需要一个固定格式的header,以及每个点的xyz信息即可。当然,点云不止这一种形式,也可以是xyzi或者xyzrgb,可以根据需要定义。代码如下:import numpy as npimport cv2 as cv2# 定义header,这里给出了两种形式的点云原创 2020-10-09 22:31:18 · 1283 阅读 · 1 评论 -
目标检测与位姿估计(十四):ros-pcl
项目地址:https://github.com/WeiChunyu-star/effective_robotics_programming_with_ros建立一个自己的工作空间以及提前编译一遍$ mkdir -p workspace/src $ cd workspace$ catkin_make下载项目并编译$ cd $ git clone https://github.com/WeiChunyu-star/effective_robotics_programming_wi原创 2020-10-09 22:30:56 · 584 阅读 · 0 评论 -
目标检测与位姿估计(十三):NVIDIA-docker
ubuntu的docker:https://github.com/NVIDIA/nvidia-dockerTensorRT的docker:https://github.com/NVIDIA/TensorRT原创 2020-10-09 22:30:39 · 161 阅读 · 0 评论 -
目标检测与位姿估计(七):PyTorch-YOLOv4的使用
YOLO V4出来也几天了,论文大致看了下,然后看到大量的优秀者实现了各个版本的YOLOV4了。Yolo v4 论文: https://arxiv.org/abs/2004.10934AB大神Darknet版本的源码实现: https://github.com/AlexeyAB/darknet本文针对Pytorch版本实现的YOLOV4进行分析,感谢Tianxiaomo 分享的工程:Pytorch-YoloV4作者分享的权重文件,下载地址:baidu(https://pan.baidu.原创 2020-08-29 16:37:25 · 7323 阅读 · 2 评论 -
目标检测与位姿估计(八):python-pcl的使用
python-pcl1.1 conda方式安转conda install -c sirokujira python-pcl1.2 报错Traceback (most recent call last):File "test_segmentation.py", line 7, in <module> import pclFile "/home/yu/.conda/envs/pic/lib/python3.6/site-packages/pcl/__init__.py", l原创 2020-08-29 16:39:21 · 930 阅读 · 0 评论 -
目标检测与位姿估计(九):C++ PCL的使用
最终还是屈服了命运啊,奈何C++可以直接输出位姿啊,期间还涉及到了KD树什么的,很有研究潜力。所以还是使用C++版吧C++版的帮助文档地址:https://pcl.readthedocs.io/projects/tutorials/en/latest/index.htmlhttps://blog.csdn.net/wokaowokaowokao12345/article/details/51457217https://blog.csdn.net/zhan_zhan1/article/..原创 2020-08-29 16:39:55 · 583 阅读 · 0 评论 -
目标检测与位姿估计(十):SLAM++论文整理及其实现(目标检测一组深度图融合确定位置-建立拓扑图)
wait原创 2020-08-29 16:40:29 · 631 阅读 · 0 评论 -
目标检测与位姿估计(十一):图优化-g2o工具的使用
名词:bundle adjustment:捆绑调整 其实BA就是将问题转变为非线性优化问题进行转变为最小二乘法的求解问题。以重投影误差(3d-2d)为例:往往是先求相机位姿,再求空间点的位置。而BA就是将它们都看做是优化变量,放在一起优化。捆绑优化这个词使用的就很贴切。重投影误差:将像素坐标与3D点按照当前估计的位姿重新投影进行比较得到的误差g2ohttps://www.cnblogs.com/gaoxiang12/p/5304272.html/** * BA Examp..原创 2020-08-29 16:41:16 · 686 阅读 · 3 评论 -
目标检测与位姿估计(十二):ROS-YOLOv4
项目地址:https://github.com/Tossy0423/yolov4-for-darknet_ros原创 2020-08-29 16:41:36 · 2225 阅读 · 10 评论 -
目标检测与位姿估计(六):TensorRT+YOLOv4
当然需要额外安装TensorRT由于需要在边缘计算机jetson TX2上部署神经网络,所以需要安装tensorRT实现c++调用加速后的网络进行推理。以下是安装过程。检查一下CUDA10.0在官网上下载deb包,注意这里cuda的安装如果选deb的话,tensorRT的安装就可以使用deb,如果cuda用的其他安装方式,如.run文件,则tensorRT不能使用deb安装。这里选择deb方便一点。按照官方指令安装即可,然后在.bashrc里添加路径export PATH=/usr/loc原创 2020-08-12 11:54:54 · 2347 阅读 · 0 评论 -
目标检测与位姿估计(五):A Survey: Visual Place Recognition
I.INTRODUCTION 一个位置识别系统需要满足和完成一些条件。其一,有一个场景的内部表示也就是地图;其二,能够得出当前视觉信息是否来自于现有地图中,如果是的那来自于哪里。目前视觉场景识别面临一些挑战,例如同一场景的外观会显著变化, 不同场景的外观非常相似,不一定沿着相同视角和位置访问同一场景。II. CONCEPT OF PLACE IN ROBOTICS AND THE NATURAL KINGDOM 自然界的位置概念有认知地图,[...转载 2020-08-08 20:43:30 · 757 阅读 · 0 评论 -
目标检测与位姿估计(四):VOC格式自有数据集制作
准备VOC格式的数据集首先要准备数据集,参考https://blog.csdn.net/sinat_36391198/article/details/102761170的文件组织形式1 目录组织handvoc是你自己数据集的名字,在该目录下有第三个文件夹如下所示。注意其中ImgeSets下还有一个Main文件夹文件夹说明:JPEGImages中存放要训练的图片。Annotations中这XML信息,XML文件名与训练图片的文件名一一对应。ImageSets中存放文件夹原创 2020-08-06 11:40:04 · 410 阅读 · 0 评论 -
目标检测与位姿估计(三):深度信息获取解决方案
’工欲善其事必先利其器‘’我们先从能够获取RGBD数据的相机开始谈起。首先我们来看一看其分类。一、根据其工作原理主要分为三类:1. 双目方案:(1) 原理:http://blog.csdn.net/shenziheng1/article/details/52883536(2)产品:ZED:https://www.stereolabs.com/Tango:http://www.androidcentral.com/tango/home2. 结构光方案(1) 原理:http://blog.sin转载 2020-08-05 17:29:10 · 1349 阅读 · 0 评论 -
目标检测与位姿估计(二):YOLOv1超参、评价指标与损失函数的建立
超参找一些对影响比较大的、常用的超参先行学习,目的是尽快上手评价指标的建立也先找比较常用的损失函数的建立先找一个正常的训练过程图看一看loss的下降趋势,或者看一下我现在在训练的,这个超参数是按照网上设置的应该可以有好效果看看程序是怎么嫁接YOLO的YOLOv1算法最后输出的检测结果为7x7x30的形式,其中30个值分别包括2个候选框的位置,有无包含物体的置信度,以及网格中包含20个物体类别的概率三部分。也就是说YOLOv1的损失包括3部分误差:位置误差,...原创 2020-08-04 10:02:20 · 1703 阅读 · 0 评论 -
目标检测与位姿估计(一):YOLOv4的实现
下载数据集链接:https://pan.baidu.com/s/15Q_7bNe4Ca0OluBM_2je5A提取码:4da9原创 2020-08-03 17:02:25 · 1839 阅读 · 0 评论