自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 BEV在线实时局部地图构建的三个经典方案对比和思考(HDMapNet,VectorMapNet,MapTR)

众所周知,由于离线高精地图High-Definition Map(HDMap)制作成本高昂,且难以实时更新,基于自车实时感知生成的在线局部地图已经逐渐成为替代解决方案或是冗余方案,因为离线地图精度较高且具备全局信息,在线地图虽然不具备全局信息但具有实时性,二者可以互为补充.博主在这个领域做了简要的调研,总结比较经典的方案主要有三个:清华赵行MARS Lab(和这个组杠上了)的HDMapNet, VectorMap,和华中科技大学与地平线合作的MapTR,觉得三个模型在框架和思路上也有内在联系和演进的过程

2023-06-19 13:53:16 1560

原创 实现真正的端到端多目标跟踪(MOT) --MOTR/MUTR3D中的Label Assignment机制理论和实例详解

基于DETR的端到端多目标跟踪的秘诀在哪里

2023-02-27 19:06:00 961

原创 万字长文盘点时序融合在BEV感知中的应用(下)

BEV感知时序融合总结(下)

2022-11-25 19:21:13 1220

原创 万字长文盘点时序融合在BEV感知中的应用(上)

BEV感知时序融合总结(上)

2022-11-25 19:15:54 1876 1

原创 自动驾驶感知新范式——BEV感知经典论文总结和对比(下)

自动驾驶bev感知经典论文总结和对比

2022-07-22 22:08:05 4935 2

原创 自动驾驶感知新范式——BEV感知经典论文总结和对比(上)

自动驾驶bev感知经典论文总结和对比

2022-07-22 21:51:08 6859

原创 深度学习环境准备之docker常用操作详解和pycharm/tensorboard远程使用方法

作为深度学习算法工程师,除了要跟论文、公式、数据、代码打交道,还有更基础、有时候也是最头疼的就是环境,环境操作的熟练程度对工作效率有重要影响。经过无数次的挖坑踩坑,有必要把常用的环境操作进行总结梳理。为了支持多个不同的工程,只有一个环境一般是不够的,使用过的多环境工具有anaconda虚拟环境、pipenv、docker等,但在大规模工程实践中,docker在多系统移植、多平台支持和多用户复用和隔离等方面有着非常大的优势,所以应用更加广泛。本文主要介绍docker的基本操作,以及搭建好docker环境后

2022-05-02 22:07:47 2206

原创 鱼眼图像自监督深度估计原理分析和Omnidet核心代码解读

在自动驾驶实际应用中,对相机传感器的要求之一是拥有尽可能大的视野范围,鱼眼相机由于视场角(FOV)极大(标准镜头45°左右,广角镜头可大于60°,鱼眼相机可大于180°,也就是说甚至可以看到镜头后面的场景),在自动驾驶汽车上广泛使用。所以如何直接从鱼眼相机图像中估计深度是自动驾驶实际落地的一个重点问题。然而鱼眼相机的大FOV带来的是非常大的非线性畸变,这决定了相比一般针孔相机,鱼眼相机图像的深度估计方法将更加复杂。虽然一个思路是对畸变进行矫正后再进行深度估计,但校正必定会引起FOV的缩小,失去使用鱼眼相

2022-05-01 20:45:06 1528 1

原创 基于PackNet的演进——丰田研究院(TRI)深度估计文章盘点(下)

本文承接上篇:基于PackNet的演进——丰田研究院(Toyota Research Institute)深度估计文章盘点(上)https://blog.csdn.net/weixin_43148897/article/details/124160485?spm=1001.2014.3001.5502五、建立多模态网络:Packnet-SAN(2021)[10] Sparse Auxiliary Networks for Unified Monocular Depth Prediction an

2022-04-13 23:24:56 1262

原创 基于PackNet的演进——丰田研究院(TRI)深度估计文章盘点(上)

继上篇对Valeo(法雷奥)公司在深度估计方面的文章的总结,本篇继续对丰田研究院TRI(Toyota Research Institute)的相关成果在做一个综述。对于两家类似的方法本篇不再重复介绍,Valeo相关文章请参见链接:苹果姐:从鱼眼到环视到多任务王炸——盘点Valeo视觉深度估计经典文章(从FisheyeDistanceNet到OmniDet)(上)苹果姐:从鱼眼到环视到多任务王炸——盘点Valeo视觉深度估计经典文章(从FisheyeDistanceNet到OmniDet)(下)一

2022-04-13 23:02:40 2851

原创 从鱼眼到环视到多任务王炸——盘点Valeo视觉深度估计经典文章(从FisheyeDistanceNet到OmniDet)(下)

本文承接上篇:苹果姐:从鱼眼到环视到多任务王炸——盘点Valeo视觉深度估计经典文章(从FisheyeDistanceNet到OmniDet)(上)四、加入语义信息引导:SynDistNet(2021)[13] SynDistNet: Self-Supervised Monocular Fisheye Camera Distance Estimation Synergized with Semantic Segmentation for Autonomous Driving (CVPR 2021

2022-04-10 00:45:46 4100

原创 从鱼眼到环视到多任务王炸——盘点Valeo视觉深度估计经典文章(从FisheyeDistanceNet到OmniDet)(上)

Valeo(法雷奥)公司多个机构(Valeo DAR Kronach, Valeo Vision Systems等)近几年在自动驾驶视觉感知领域成果层出不穷,其中几篇经典文章均出自Varun Ravi Kimar之手,同时还发布了一个自动驾驶多任务环视数据集woodScape。博主对近期阅读的Valeo一系列文章做一个简要总结,同时也对其引用的一些基础论文做简要的介绍,希望与大家多多交流。本文将从鱼眼深度估计模型开始介绍,关于基础的针孔相机深度估计理论可参考博主以往文章:苹果姐:单目深度估计基础理论和论

2022-04-10 00:39:15 3726

原创 单目深度估计模型Featdepth实战中的问题和拓展

关于Featdepth模型的原理和源码解读,可以参照以下两篇博客:苹果姐:单目深度估计自监督模型Featdepth解读(上)——论文理解和核心源码分析苹果姐:单目深度估计自监督模型Featdepth解读(下)——openMMLab框架分析和使用博主在Featdepth实战中遇到了不少问题,如分布式多卡训练工具DDP使用中的问题,包括GPU分配上的bug、如何打印多卡全局loss、如何进行全局同步BN(SyncBN)、如何进行数据shuffle等。可能因为源码时间比较久,所以有不完善的地方。在此对于这些

2022-02-15 15:49:34 1430

原创 深入理解pytorch分布式并行处理工具DDP——从工程实战中的bug说起

近期博主在使用分布式并行处理工具DDP(DistributedDataParallel)训练单目深度估计模型Featdepth(源码地址:https://github.com/sconlyshootery/FeatDepth)时遇到了bug:原因很容易定位出来:在3D投影模块有以下代码:class Backproject(nn.Module): def __init__(self, batch_size, height, width): super(Backproject,

2022-02-15 11:25:31 3425 4

原创 python装饰器工程实例及关键点总结

装饰器是一个基础概念也是让初学者很迷糊的概念,但每个中大型工程里面都会用到,搞不清楚的话就会看得云里雾里,很多功能找不到在哪里实现的。本文带你一探究竟

2022-02-09 16:41:56 525

原创 单目深度估计自监督模型Featdepth解读(下)——openMMLab框架使用

openmmlab框架使用解读

2022-01-29 15:58:08 2662

原创 单目深度估计自监督模型Featdepth解读(上)——论文理解和核心源码分析

Featdepth超全论文理解和核心源码分析

2022-01-29 15:23:59 5000

原创 深度估计自监督模型monodepth2在自己数据集的实战——单卡/多卡训练、推理、Onnx转换和量化指标评估

monodepth2实战

2022-01-28 12:58:51 5849 45

原创 python多进程/进程池/进程间共享数据实用场景分析和实践踩坑记录

我们都知道,python这门语言比C++慢主要有两个原因,一是python是动态类型语言,需要边解释边执行,二是全局解释其锁(GIL)的存在,让python无法利用多核CPU并发执行。对于第一点是语言本身决定的,没啥好办法,第二点还是可以有些应对措施的,比如:1、多线程 threading 机制依然是有用的,用于IO密集型计算。因为在 I/O (read,write,send,recv,etc.)期间,线程会释放GIL,实现CPU和IO的并行,因此多线程用于IO密集型计算依然可以大幅提升速度,但是多线程

2022-01-18 09:50:33 2052

原创 目标检测与分割之MaskRCNN代码结构流程全面梳理+总结

学习目标检测不久,花一个多月的空闲时间啃完了maskRCNN论文和tensorflow+keras开源代码,感觉进入了一个新的境界,在此做一个比较详细的流程梳理和总结,同时也希望对其他学习目标检测和语义分割的同学有点帮助。本文主要针对代码结构进行梳理,对于原理还不熟悉的同学可以参考这几篇博文:格灵深瞳DeepGlint:干货 | 目标检测入门,看这篇就够了(已更完)白裳:一文读懂Faster RCNNstone:令人拍案称奇的Mask RCNN另外由于博主比较懒,借用了以下系列博文的部分框图,侵删

2022-01-13 17:09:47 6165 1

原创 单目深度估计基础理论和论文学习总结

深度估计基础论文总结

2022-01-12 17:33:50 2568

原创 python面向对象的细节问题总结

所周知,python是一个非常“沉默”的语言,不仅支持动态类型,对于面向对象的用法也可以最大程度地“放任”,直到程序完全跑不下去才会无情报错,但也由此带来很多坑,如果不深入研究,很可能引起非常隐蔽的逻辑错误。本人最近因为业务需求的扩展,原本写死的多种逻辑、参数、阈值需要同时支持默认模式和可传参功能,而且要同时支持多套不同的环境的上传、下载、调用机制,所以需要对原python代码库做大量重构,不可避免地遇到了python面向对象的诸多坑。为了彻底搞清楚,作者做了一波实验,可能有些是一般情况下遇不到的,但有助

2022-01-12 17:27:55 425

原创 pytorch使用tensorboard实现可视化总结

一、介绍:Tensorboard 是 TensorFlow 的一个附加工具,可以记录训练过程的数字、图像等内容,以方便研究人员观察神经网络训练过程。可是对于 PyTorch 等其他神经网络训练框架并没有功能像 Tensorboard 一样全面的类似工具,一些已有的工具功能有限或使用起来比较困难 (tensorboard_logger, visdom等) 。TensorboardX 这个工具使得 TensorFlow 外的其他神经网络框架也可以使用到 Tensorboard 的便捷功能。二、环境准备:这

2022-01-12 17:10:28 1055

原创 深度估计自监督模型monodepth2论文总结和源码分析【理论部分】

对monodepth2模型的原创解读

2022-01-12 15:16:38 5640 13

原创 鱼眼投影模型理解以及opencv官方文档和同类文章勘误

opencv鱼眼模型公式推导存在误导,大部分博客对此做出了错误解读,在此勘误

2022-01-12 15:03:10 4073 7

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除