- 博客(457)
- 资源 (50)
- 收藏
- 关注
原创 CVPR2024 合成异常数据 工业异常检测 RealNet
本文分享一个基于扩散模型的异常检测框架,用于检测工业场景的缺陷检测或异常检测。强度可控扩散异常合成:基于扩散过程的合成策略,能够生成不同强度的异常样本,模仿真实异常样本的分布。异常感知特征选择:选择代表性和判别性的预训练特征子集,以提高异常检测性能并控制计算成本。重建残差选择:自适应选择判别性残差,用于全面识别各级异常区域。强度可控扩散异常合成,简称为SDAS,生成的异常图像,如下图所示。这些异常图像,都是基于正常图像生成的。
2024-05-31 23:08:56 1343
原创 3D工业视觉
本文主要介绍3D视觉技术、工业领域的应用、市场格局等。3D视觉技术满足工业领域更高精度、更高速度、更柔性化的需求,扩大工业自动化的场景。移动机器人视觉引导是一个前景的场景,主要技术包括结构光、ToF、立体视觉。从深度学习到通用视觉大模型,AI助力机器视觉提升效率,拓展应用场景。
2024-05-23 20:51:03 1800 3
原创 【6D位姿估计】SAM-6D 当分割一切遇到位姿估计 CVPR2024
本文介绍6D位姿估计的方法SAM-6D,来自CVPR 2024的论文。它是一个用于零样本6D位姿估计的框架,在测试新物体时,无需进行微调,直接进行检测。通过结合实例分割模型和姿态估计模型,实现对新物体的6D姿态估计。
2024-05-17 19:09:37 1257 2
原创 【6D位姿估计】FoundationPose 支持6D位姿估计和跟踪 CVPR 2024
本文介绍6D位姿估计的方法FoundationPose,是CVPR 2024的满分论文,支持6D位姿估计和跟踪。通过大规模的合成数据训练,具有强大的泛化能力,在测试新物体时,无需进行微调。支持输入一些物体的RGBD图片,模型进行3D物体构建;生成多个假设的姿态,进行评分和排序得到最精准的姿态。
2024-05-09 00:16:09 2375 2
原创 【多模态融合】MetaBEV 解决传感器故障 3D检测、BEV分割任务
本文介绍多模态融合中,如何解决传感器故障问题;基于激光雷达和相机,融合为BEV特征,实现3D检测和BEV分割,提高系统容错性和稳定性。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-04-06 19:42:09 1538
原创 【多模态融合】SuperFusion 激光雷达与相机多层次融合 远距离高清地图预测 ICRA 2024
本文介绍激光雷达与相机进行多层次融合,包括数据级融合、特征级融合和BEV级融合。融合后的BEV特征可以支持不同的任务头,包括语义分割、实例编码和方向预测,最后进行后处理生成高清地图预测,它是来自ICRA 2024的。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-03-26 01:45:35 2244
原创 【多模态融合】CRN 多视角相机与Radar融合 实现3D检测、目标跟踪、BEV分割 ICCV2023
本文介绍使用雷达与多视角相机融合,实现3D目标检测、3D目标跟踪、道路环境BEV分割,它是来自ICCV2023的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等。
2024-03-03 13:13:29 1578
原创 4D毫米波雷达——ADCNet 原始雷达数据 目标检测与可行驶区域分割
本文介绍使用4D毫米波雷达,基于原始雷达数据,实现目标检测与可行驶区域分割,它是来自2023-12的论文。ADCNet只使用雷达信息,实现车辆检测和可行驶区域分割。输入:原始雷达数据;即ADC数据,由4D毫米波雷达生成。信号处理模块:用一个可学习的信号处理层,来处理原始ADC数据。RD特征:信号处理层将ADC数据,转为RD特征,范围-多普勒信息,包含距离和速度信息。主干网络:进一步编码RD特征,隐式地估算目标的方位角。任务头:首先进行RAD张量预训练。在预训练完后,进行微调检测任务头和分割任务头
2024-01-30 00:24:41 1781
原创 4D毫米波雷达——FFT-RadNet 目标检测与可行驶区域分割 CVPR2022
本文介绍使用4D毫米波雷达,实现目标检测与可行驶区域分割,它是来自CVPR2022的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等,还有结合代码进行分析。输入是“范围-多普勒”信息,即RD图;由4D毫米波雷达生成。经过主干网络和FPN提取特征信息,并进一步编码形成“范围-角度”信息”。然后接两个任务头:车辆检测任务、可行驶区域分割任务。
2024-01-21 17:59:54 2705 2
原创 4D毫米波雷达——原理、对比、优势、行业现状
4D 毫米波雷达是传统毫米波雷达的升级版,4D指的是速度、距离、水平角度、垂直高度四个维度。相比传统 3D 毫米波雷达,4D 毫米波雷达增加了“高度”的探测,将第四个维度整合到传统毫米波雷达中。4D毫米波雷达被视为未来车载雷达的一种可能的标准配置,因为它在多方面优于传统的毫米波雷达和低线激光雷达,能与高线激光雷达互补。预计这种雷达将被广泛应用于各种车型中。与传统雷达产品相比,4D毫米波雷达能够突破在静止目标识别横向移动检测高度识别区分邻近物体和探测隐藏车辆等方面的限制。
2024-01-18 00:02:47 6290
原创 【占用网络】SurroundOcc:基于环视相机实现3D语义占用预测 ICCV 2023
本文分享“占用网络”方案中,来自ICCV 2023的SurroundOcc,它基于环视相机实现3D语义占用预测。使用空间交叉注意力将多相机图像信息提升到3D体素特征,即3D体素Query到2D图像中查询融合特征的思想。然后使用3D卷积逐步对体素特征进行上采样,并在多个层次特征图上进行损失监督。同时,SurroundOcc介绍了如何通过多帧点云,构建稠密的3D语义占用栅格数据集,这部分也是挺重要的。清华大学云盘。
2024-01-10 23:57:01 1058
原创 【占用网络】VoxFormer 基于视觉的3D语义场景方案 CVPR 2023
本文分享“占用网络”方案中,来自CVPR2023的VoxFormer,它基于视觉实现3D语义场景补全。使用Deformable Attention从图像数据中,预测三维空间中的体素占用情况和类别信息。VoxFromer是一个两阶段的框架第一个阶段:预测每个像素的深度值,将像素投影三维空间中,2D图像到3D空间的思想。然后预测每个三维网格是否被占用,生成稀疏体素特征。最后选择其中是“占用”的体素作为“体素查询特征”进入第二阶段。这个阶段只预测占用情况,选择一些值得分析的体素。第二个阶段。
2024-01-04 00:43:57 1609
原创 【占用网络】OccNet: Scene as Occupancy 适用于检测、分割和规划任务 ICCV2023
本文分享“占用网络”方案中,具有代表性的方法:OccNet。它以多视角视觉为核心,首先生成BEV特征,然后通过级联结构和时间体素解码器重建生成3D占用特征。构建一个通用的“3D占用编码特征”,用以表示3D物理世界。这样的特征描述可以应用于广泛的自动驾驶任务,包括检测、分割和规划。
2023-12-29 00:44:48 1904
原创 【BEV感知】BEVFormer 融合多视角图形的空间特征和时序特征 ECCV 2022
本文分享BEV感知方案中,具有代表性的方法:BEVFormer。基本思想:使用可学习的查询Queries表示BEV特征查找图像中的空间特征和先前BEV地图中的时间特征。它基于Deformable Attention实现了一种融合多视角相机空间特征和时序特征的端到端框架,适用于多种自动驾驶感知任务。主要由3个关键模块组成:BEV Queries Q:用于查询得到BEV特征图Spatial Cross-Attention:用于融合多视角空间特征。
2023-12-17 23:12:08 2589 1
原创 单目3D目标检测 方法综述——直接回归方法、基于深度信息方法、基于点云信息方法
本文综合整理单目3D目标检测的方法模型,包括:基于几何约束的直接回归方法,基于深度信息的方法,基于点云信息的方法。万字长文,慢慢阅读~ 直接回归方法涉及到模型包括:MonoCon、MonoDLE、MonoFlex、CUPNet、SMOKE等。基于深度信息的方法涉及到模型包括:MF3D、MonoGRNet、D4LCN、MonoPSR等。基于点云信息的方法涉及到模型包括:Pseudolidar、DD3D、CaDDN、MonoDTR等。
2023-10-26 00:26:07 3288 2
原创 手把手搭建一个【卷积神经网络】
前言本文介绍卷积神经网络的入门案例,图像分类;使用到CIFAR10数据集,它包含10 类,即:“飞机”,“汽车”,“鸟”,“猫”,“鹿”, “狗”,“青蛙”,“马”,“船”,“卡车” ;共 60000 张彩色图片;通过搭建和训练卷积神经网络模型,对图像进行分类,能识别出图像是“汽车”,或“鸟”,还是其它。思路流程导入 CIFAR10 数据集 探索集数据,并进行数据预处理 建立模型(搭建神经网络结构、编译模型) 训练模型(把数据输入模型、评估准确性、作出预测、验证预测) 使用训练..
2021-05-05 17:12:20 16023 27
原创 【神经网络】综合篇——人工神经网络、卷积神经网络、循环神经网络、生成对抗网络
前言本文综合整理常用的神经网络,包括生物神经网络、人工神经网络、卷积神经网络、循环神经网络、生成对抗网络;参考了许多高校的课程、论文、博客和视频等。文章的结构是先进行概念了解,然后结合图片、结构图、一步一步详细讲解;大家要不看看?( •̀ ω •́ )y一、人工神经网络简介:人工神经网络(Artificial Neural Network, ANN),由人工神经元构成的网络,模拟人类的大脑;它模拟生物过程以反映人脑某些特征的计算结构。联系:人工神经元模拟生物神经元;人工神经网络模拟...
2021-04-17 17:03:06 37523 19
原创 一篇文章认识《双目立体视觉》
双目立体视觉,由两个摄像头组成,像人的眼睛能看到三维的物体,具有深度的信息;单目视觉只能看到二维的物体。1)双目摄像头2)双目相机基线3)打开双目摄像头4)双目测距视差disparity、极线约束、极线校正/立体校正、a.双目标定b.双目矫正c.立体匹配d.双目测距(三角测量)e.测距效果立体视觉方法评测网站
2021-04-02 01:28:17 6447 26
原创 目标检测模型NanoDet(超轻量,速度很快)介绍和PyTorch版本实践
YOLO、SSD、Fast R-CNN等模型在目标检测方面速度较快和精度较高,但是这些模型比较大,不太适合移植到移动端或嵌入式设备;轻量级模型 NanoDet-m,对单阶段检测模型三大模块(Head、Neck、Backbone)进行轻量化,目标加检测速度很快;模型文件大小仅几兆(小于4M)。该代码基于NanoDet项目进行小裁剪,专门用来实现Python语言、PyTorch 版本的代码,下载直接能使用,支持图片、视频文件、摄像头实时目标检测。
2020-12-02 23:25:20 30256 65
原创 基于神经网络——鸢尾花识别(Iris)
前言鸢尾花识别是学习AI入门的案例,这里和大家分享下使用Tensorflow 2框架,编写程序,获取鸢尾花数据,搭建神经网络,最后训练和识别鸢尾花。流程:1)获取鸢尾花数据,分析处理。2)整理数据位训练集,测试集。3)搭建神经网络模型。4)训练网络,优化网络模型参数。5)保存最优的模型,进行识别...
2020-07-05 19:30:03 31328 17
原创 点云可视化 .ply文件 | 方案汇总
本文分析可视化点云.ply文件的几种方法,包括MeshLab软件、在线可视化点云.ply文件、通过PyntCloud库编程实现。PLY是一种用于存储三维数据的文件格式,常用于点云数据和多边形网格。被广泛应用于计算机图形学、3D扫描和3D打印等领域。PLY文件可以存储顶点、面以及相关属性(如颜色、法线等)。
2024-06-27 20:18:36 910
原创 Stable Diffusion 3 文本生成图像 在线体验 原理分析
本文分享使用Stable Diffusion 3实现文本生成图像,可以通过在线网页中免费使用的,也有API等方式访问。Stable Diffusion 3是Stability AI开发的最新、最先进的文本生成图像模型,在图像保真度、多主体处理和文本匹配方面取得了显著进步。利用新的多模态扩散变换器(MMDiT)架构,它具有单独的图像和语言表示的Stable Diffusion 3权重。
2024-06-22 11:09:18 879
原创 labelme转YOLOv8、YOLOv5 标签格式 标注数据
本文分析将labelme的标签,转为YOLOv8、YOLOv5的格式,实现模型训练。首先了解YOLOv8和YOLOv5标签格式,然后了解labelme标签格式,最近实现数据格式转换。
2024-06-11 18:50:11 848 1
原创 文档翻译 在线 免费(一译)
有时需要看英文论文,奈何英语水平不太好,看完10几页的文档很吃力;于是到网上找了一大堆方法,一个一个尝试,找到在线免费的文档翻译;这里分享一下。它的名称为:一译。特点是在线、免费、支持上传arXiv在线论文。
2024-05-30 17:45:42 352
原创 AAAI2024 基于扩散模型 多类别 工业异常检测 DiAD
本文分享一个基于扩散模型的多类别异常检测框架,用于检测工业场景的缺陷检测或异常检测。设计SG语义引导网络,在重建过程中有效保持输入图像的语义信息,解决了LDM在多类别异常检测中的语义信息丢失问题。高效重建,通过在潜在空间中进行扩散和去噪操作,增强了模型在处理复杂结构和大规模缺陷时的重建能力。同时分析基础扩散模型DDPM和LDM,对比设计原理和效果。
2024-05-28 22:05:28 1176 1
原创 引脚 针脚 pin针歪斜检测——工业设备调研
本文汇总引脚歪斜检测、针脚歪斜检测、pin针歪斜检测的工业设备示例,供大家参考。目录前言方案1:机器视觉的端子PIN针歪斜检测系统方案方案2:芯片引脚歪斜检测方案3:pin针3D检测 歪斜方案4:芯片引脚歪斜检测(高分辨率彩色相机CCD)
2024-05-18 22:09:51 468
原创 引脚 针脚 pin针歪斜检测——技术方案 论文研读
本文汇总引脚歪斜检测、针脚歪斜检测、pin针歪斜检测的技术方案,供大家参考。主要介绍两个示例,基于传统图像算法和机器学习的PIN针歪斜检测。目录前言方案1:基于传统图像算法的PIN针歪斜检测方案2:基于机器学习的连接器缩针弯针检测系统研究。
2024-05-18 09:30:08 770
原创 【6D位姿估计】FoundationPose 跑通demo 训练记录
本文记录在FoundationPose中,跑通基于CAD模型为输入的demo,输出位姿信息,可视化结果。然后分享NeRF物体重建部分的训练,以及RGBD图为输入的demo。
2024-05-09 19:36:08 1794 21
原创 【6D位姿估计】数据集汇总 BOP
BOP是6D位姿估计基准,汇总整理了多个数据集,还举行挑战赛,相关报告被CVPR接受和认可。它提供3D物体模型和RGB-D图像,其中标注信息包括6D位姿、2D边界框和2D蒙版等。
2024-05-06 22:11:12 1143 2
原创 【6D位姿估计】ZebraPose 层次化分组策略 由粗到细的表面编码
本文介绍6D位姿估计的方法ZebraPose,也可以称为六自由度物体姿态估计,输入单张图片,输出物体的三维位置和三维方向。它来自CVPR2022的论文,通过层次化分组策略,高效地编码物体表面的信息。ZebraPose提出了一种从粗糙到精细的训练策略,使得模型能够预测更为精细的2D-3D对应关系。
2024-05-06 18:44:10 1149
原创 【6D位姿估计】GDR-Net 单目几何引导的直接回归模型
本文介绍6D位姿估计的直接回归方法GDR-Net,它从单个RGB图像中确定物体在三维空间中的位置和方向。它是一个端到端模型,与传统的间接方法不同,GDR-Net可以通过反向传播完全训练,简化了训练过程。M2D-3D:这是2D图像和3D模型之间密集对应关系的中间特征表示。它包含了图像中每个像素点和物体模型之间的对应关系。MSRA:表面区域注意力模块,它聚焦于图像中物体表面的特定区域,为位姿估计提供更加精细的几何线索。Patch-PnP:是位姿估计的最终步骤,它使用从CNN中提取的密集对应关系和表面注意力特
2024-05-01 21:50:49 834
原创 【BEV 视图变换】Fast-Ray 基于查找表LUT、多视角到单个三维体素转换
在BEV感知方案中,将图像特征转为BEV特征,是关键的一步,这过程也称为2D视图变换。本文介绍Fast-Ray方法,在Fast-BEV中被提出的,它是一种轻量级并且易于部署的视图转换方法,用于快速推理。通过将多视图2D图像特征沿着相机射线投影到3D体素上,来获得BEV特征。此外,提出了查找表和多视图到单体素操作,优化了在车载平台上的处理过程。
2024-04-10 00:45:14 890
原创 【BEV视图变换】BEVPoolv2 原理、CUDA代码实现
本文介绍BEVPoolv2,会介绍原理和CUDA代码实现。从工程优化的角度出发,改善BEV模型的视图转换。通过省略视锥特征的计算、存储和预处理来实现,使其在计算和存储方面不再受到巨大的负担。输入使用640 ×1600的分辨率,它可以在 0.82 毫秒内处理,这是先前最快实现的 15.1 倍。
2024-03-05 00:41:50 1832 6
原创 4D毫米波雷达——RADIal数据集、格式、可视化 CVPR2022
本文介绍RADIal数据集,来着CVPR2022的。它是一个收集了 2 小时车辆行驶数据的数据集,采集场景包括:城市街道、高速公路和乡村道路。采集设备包括:摄像头、激光雷达和高清雷达等,并且还包括了车辆的 GPS 位置和行驶信息。总共有 91 个视频序列,每个视频时长从 1 分钟到 4 分钟不等,加起来一共是 2 小时。这些视频详细记录了车辆在不同地点和环境下的行驶情况。在大约 25,000 个录制的画面中,有 8,252 个画面被用来标记了 9,550 辆车。
2024-01-19 01:21:49 2700 7
原创 【占用网络】FlashOcc:基于2D卷积的占用预测模型
FlashOcc是一个它只需2D卷积就能实现“占用预测模型”,具有快速、节约内存、易部署的特点。它首先采用2D卷积提取图形信息,生成BEV特征。然后通过通道到高度变换,将BEV特征提升到3D空间特征。对于常规的占用预测模型,将3D卷积改为2D卷积,将三维体素特征改为BEV特征。而且不用Transformer注意力算子。
2024-01-17 09:18:17 443
原创 【占用网络】FlashOcc:快速、易部署的占用预测模型
FlashOcc是一个快速、节约内容、易部署的占用预测模型。它首先采用2D卷积提取图形信息生成BEV特征。然后通过通道到高度变换(channel-to-height transformation),将BEV特征提升到3D空间特征。对于常规的占用预测模型,将3D卷积改为2D卷积,将三维体素特征改为BEV特征。而且不用Transformer注意力算子。
2024-01-14 18:12:24 325
原创 【BEV感知 EA-LSS 方案】Edge-aware Lift-splat-shot
本文分享LSS方案的改进方案——EA-LSS,它解决了“深度跳变”问题,提出了一个新框架Edge-aware Lift-splat-shot。适用于“多视图转BEV”,可以代替原来的LSS模块,并有效地提高了检测精度,而推理时间的增加很少。在nuScenes测试集上验证,纯相机模型或多模态模型,EA-LSS都是有效的,并达到了Top1排名(截至本文时间2023-12)。
2023-12-11 22:18:04 457
原创 【多传感器融合】BEVFusion: 多任务-多传感器融合框架 ICRA 2023
BEVFusion ICRA 2023| MIT提出的。它是一个为多任务、多传感器融合提供了一个高效、通用且任务可拓展的框架。通过在共享的BEV空间中统一多模态特征,并保持几何结构和语义密度,它支持广泛的3D感知任务(检测、分割、预测等)
2023-12-03 20:38:04 487
原创 【BEV感知 LSS方案】Lift-Splat-Shoot 论文精读与代码实现
LSS全称是Lift-Splat-Shoot,它先从车辆周围的多个摄像头拍摄到的图像进行特征提取,在特征图中估计出每个点的深度然后把这些点“提升”到3D空间中。接着,这些3D信息被放置到一个网格上最后将这些信息“拍扁”到一个平面视图上,形成BEV特征图。Lift,是提升的意思,2D → 3D特征转换模块,将二维图像特征生成3D特征,涉及到深度估计。Splat,是展开的意思,3D → BEV特征编码模块,把3D特征“拍扁”得到BEV特征图。Shooting,是指在BEV特征图上进行相关任务操作。
2023-12-01 22:47:09 458
CVPR 2022 Tutorial Denoising Diffusion-based Generative Model
2023-11-11
整理近年来《人工智能》的标准和评估规范
2020-11-19
宝马:深度学习在自动驾驶中的应用及部署过程.pdf
2020-04-05
“2019年中国自动驾驶行业发展研究报告-前瞻产业研究院-2019.8”.pdf
2020-04-05
VScode+opencv3.4+mingw5.3+cmake-3.9.0.rar
2020-04-03
apollo_demo_2.0.bag数据包
2020-01-13
apollo__demo_1.5.bag数据包
2020-01-13
apollo--demo_1.0数据包
2020-01-13
decawave_trek1000_arm2.10_pc3.6.zip
2019-07-22
ZigBee各类传感器模块-例程及使用手册说明.zip
2019-07-19
bazel-0.27.1-installer-linux-x86_64.sh
2019-07-10
Win32DiskImager-0.9.5-install 树莓派和电脑传输文件
2019-02-25
全国大学生电子设计竞赛 培训资料
2018-10-21
CC2530 (zigbee) 中文数据手册完全版
2018-10-05
cc2530蓝牙 PWM 小车
2018-01-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人