- 博客(520)
- 资源 (3)
- 收藏
- 关注
原创 Jetson Thor测试 Qwen-VLM
摘要:本文介绍了在Jetson Thor上搭建Qwen3-VL-2B-Instruct模型环境的详细步骤。主要包括:1)通过特定源安装PyTorch及相关库;2)解决常见依赖缺失问题(如libnvpl_lapack、libcublas等);3)提供完整的Python实现代码,展示如何加载多模态视觉语言模型Qwen3VL,并实现物体检测功能。代码包含图像预处理、模型推理、结果解析和可视化模块,特别处理了中文显示问题。文中还给出了各依赖库的官方下载链接和环境变量配置方法。
2026-04-01 09:28:39
388
原创 目标检测+分类模型流水线并行推理
本文实现了一个基于YOLOv5和MobileNet的多线程目标检测与分类流水线系统。该系统通过ONNX Runtime部署模型,支持CPU/GPU加速,主要包含以下功能:1) 使用YOLOv5进行目标检测,通过改进的letterbox预处理和NMS后处理提高检测精度;2) 采用MobileNet对检测到的目标区域进行分类;3) 利用ThreadPoolExecutor实现检测和分类任务的多线程并行处理。系统通过线程锁保证结果一致性,并包含完善的异常处理和模型验证机制。实验表明,该流水线能有效提升处理效率,在
2026-04-01 09:15:07
15
原创 DGCNN模型onnxruntime和tensorrt部署
本文介绍了DGCNN模型在ONNX Runtime和TensorRT两种框架下的部署方法。首先通过修改PyTorch测试代码导出ONNX模型,然后分别实现了ONNX Runtime和TensorRT的推理流程。实验结果表明,两种部署方式都能正确运行并输出预测结果(类别4)。具体步骤包括:1)修改PyTorch测试代码导出ONNX模型;2)编写ONNX Runtime推理脚本;3)使用trtexec工具转换TensorRT引擎;4)实现TensorRT推理代码。该部署方案可用于3D点云分类任务,为边缘计算等场
2026-03-17 19:19:13
166
原创 web网页显示点云
本文介绍了一个基于ThreeJS的PCD点云浏览器可视化项目。通过HTML页面加载PCD文件(示例为pig.pcd),实现3D点云交互式展示。用户可通过鼠标操作(旋转、缩放、平移)和键盘快捷键(调整点大小、改变颜色)与点云交互。技术栈采用ThreeJS配合PCDLoader和TrackballControls插件,通过本地HTTP服务器运行。页面包含操作说明和功能链接,适合PCL点云库学习者使用。
2026-03-17 18:57:18
413
原创 yolo_deepstream测试
本文介绍了在Docker环境下配置和运行YOLOv7模型推理的步骤。首先从GitHub下载yolo_deepstream源代码,并按照指南配置Docker环境。在编译过程中遇到了问题,通过修改Makefile中的编译参数(包括CUDA路径和依赖库)得以解决。接着下载YOLOv7模型文件,并修改配置文件以适配该模型。最后运行deepstream-app命令启动推理,成功加载模型并生成引擎文件。日志显示模型加载成功,并输出了引擎的层信息。整个过程涉及环境配置、编译调试和模型部署等关键环节。
2026-03-02 10:41:05
196
原创 OpenCV进入源码调试
本文介绍了如何编译OpenCV源码并进行调试。首先从GitHub获取OpenCV源码,使用CMake和VS进行Debug模式编译。然后创建VS测试项目,编写简单的图像处理程序。重点说明了如何配置项目属性表以链接OpenCV库,并通过在关键代码行设置断点实现源码级调试。文中配有配置截图,展示了如何进入OpenCV内部函数进行逐语句调试的方法。
2026-03-02 10:09:47
41
原创 OpenMMlab导出CenterPoint模型并用onnxruntime推理
【代码】OpenMMlab导出CenterPoint模型并用onnxruntime推理。
2026-02-26 11:19:05
37
原创 OpenMMlab导出VisionTransformer模型并用onnxruntime推理
本文介绍了如何使用MMDeploy工具将Vision Transformer模型导出为ONNX格式并进行推理。首先通过torch2onnxAPI将PyTorch模型转换为ONNX模型,然后使用ONNXRuntime进行推理。推理过程包括图像预处理(尺寸调整、中心裁剪、归一化等),最后通过ONNX模型预测类别。代码示例展示了完整的导出和推理流程,包括模型转换、图像处理以及推理执行步骤。
2026-02-26 09:12:27
153
原创 PointMLP分类模型tensorrt部署
本文介绍了PointMLP模型的部署流程。首先配置环境并训练模型,然后导出ONNX模型并处理自定义算子。最后使用TensorRT 10进行推理测试,验证了模型在测试数据上的分类效果。整个过程涵盖了从模型训练到推理部署的关键步骤,展示了PointMLP模型在实际应用中的可行性。
2026-02-04 14:56:40
356
原创 docker-desktop安装测试DeepStream
摘要 本文介绍了在Windows系统下搭建DeepStream 8.0开发环境的详细步骤。通过Docker容器部署NVIDIA官方镜像,配置图形界面和SSH服务,并测试Python SDK的运行。重点包括:1) 容器创建与GPU支持配置;2) 图形界面安装;3) Python环境搭建与依赖安装;4) 运行测试样例验证环境。测试结果显示系统能正确识别视频中的车辆和行人目标,证实环境配置成功。该方案适用于Win10/Win11系统,为DeepStream应用开发提供了便捷的本地测试环境。
2026-02-04 10:40:22
238
原创 fastsam3d部署
摘要:本文提出将原始SAM3D中的SAM模型替换为FastSAM模型,构建FastSAM3D系统,并通过ONNXRuntime或TensorRT框架部署以提升推理速度。代码实现了基于FastSAM的图像分割、点云处理和3D重建流程,包括ONNX模型推理、深度图与彩色图对齐、点云坐标转换及分组处理等功能。该系统通过优化后的模型架构和部署方案,显著提高了3D场景理解任务的执行效率。
2026-01-28 09:08:40
343
原创 yolo目标检测线程池高性能视频tensorrt推理(每秒1400帧)
本文介绍了基于TensorRT的YOLOv5目标检测推理框架实现。主要包括以下几个核心模块: 日志系统(Logger):实现了TensorRT的ILogger接口,提供不同级别的彩色日志输出功能 图像预处理(Preprocess): 实现了LetterBox函数,用于保持图像比例的同时进行缩放和填充 支持CPU和GPU两种预处理方式(通过USE_CUDA宏控制) YOLOv5推理框架: 封装了TensorRT的运行时环境 管理输入输出内存(主机端和设备端) 提供模型加载和推理接口 包含预处理、推理、后处理完
2026-01-28 09:02:21
488
原创 sam3d环境搭建和运行
本文介绍了SegmentAnything3D(SAM3D)的环境搭建、数据准备和测试运行流程。首先通过conda创建Python 3.8环境,安装PyTorch、Segment-Anything等依赖库。然后下载ScanNet数据集并预处理点云和RGB数据。测试运行阶段使用预训练模型生成3D分割结果,并通过可视化代码展示分割效果。整个过程涵盖了从环境配置到结果可视化的完整流程,为3D场景分割任务提供了实践指南。
2026-01-16 09:40:26
332
10
原创 yolo26目标检测尝鲜测试
摘要:本文介绍了如何配置Ultralytics YOLOv8.4.2环境并进行模型训练和推理。首先从GitHub下载官方代码,安装指定版本的PyTorch和依赖项。环境配置完成后,通过Python脚本加载预训练的YOLO26n模型,展示模型信息,并在COCO8数据集上进行100个epoch的训练。最后使用训练好的模型对示例图像"bus.jpg"进行目标检测推理并可视化结果。整个流程涵盖了从环境搭建到模型训练和测试的完整步骤。
2026-01-16 00:01:12
396
原创 C++打包成动态库给python调用
本文介绍了如何将YOLOv5模型推理功能封装为C++动态库。通过定义common.h/cpp和yolo.h/cpp文件,实现了TensorRT引擎的初始化、图像预处理(LetterBox处理)、推理执行和结果处理等功能。重点展示了如何用extern "C"导出函数接口,避免C++名称修饰问题,使动态库能被其他语言调用。封装内容包括:模型加载、CUDA流创建、输入输出内存管理以及推理结果处理等核心功能。该实现支持跨语言调用,可作为深度学习模型部署的通用解决方案。
2026-01-14 11:09:24
294
原创 C++和python程序之间通信
本文展示了C++与Python程序间通过共享内存实现图像数据传输的两种方式。第一种是C++发送数据给Python,使用Boost.Interprocess创建共享内存,存储图像信息(宽、高、通道数)和像素数据;Python端通过multiprocessing.shared_memory读取并重构图像。第二种是Python发送数据给C++,Python创建共享内存并写入图像信息,C++读取后转换为OpenCV Mat格式。两种方法都实现了跨语言的高效图像数据传输,代码中包含错误处理和资源清理机制。
2026-01-14 08:57:11
249
原创 通用多相机多线程采图框架
本文实现了一个通用的相机采集框架,包含抽象基类BaseCamera和USB相机实现USBCamera。BaseCamera定义了相机初始化、图像采集、线程管理等通用接口,采用生产者-消费者模式,通过线程安全队列缓存图像数据。USBCamera继承BaseCamera,基于OpenCV实现具体功能,支持设置分辨率、帧率等参数。框架采用多线程设计,主线程通过get_frame()获取图像,采集线程持续捕获帧数据并存入队列,当队列满时自动丢弃旧帧。该设计实现了硬件控制与图像处理的解耦,支持多相机并行采集,确保系统
2026-01-05 12:57:26
315
原创 cuda-kdtree实现的icp算法(40w点耗时1ms)
本文对比了自实现ICP算法与PCL库ICP算法的性能差异。测试结果显示,在处理bunny点云数据时,自实现ICP耗时0.76ms,PCL耗时1.47ms;处理table_scene点云时,自实现耗时1.14ms,PCL耗时62.68ms。两种算法均能正确收敛,但自实现ICP在小规模数据上更快,而PCL在大规模数据上性能下降明显。两种算法输出的变换矩阵结果基本一致,验证了自实现ICP的正确性。完整工程已提供下载。
2026-01-05 11:31:29
355
原创 yolo tensorrt视频流检测软解码和硬解码
链接: https://pan.baidu.com/s/15EDzhLEWywpcelyKDEUkAw 提取码: btae 复制这段内容后打开百度网盘手机App,操作更方便哦。–来自百度网盘超级会员v7的分享。
2026-01-03 21:06:18
460
原创 sam3模型onnxruntime和tensorrt推理
本文介绍了ONNX模型推理流程及预处理方法,主要包括两部分内容:1) 图像预处理模块(image_preprocess.py)实现了图像尺寸调整、归一化和维度转换;2) 简化版CLIP BPE分词器(SimpleCLIPBPETokenizer)实现了从vocab.json和merges.txt加载词表,包含bytes转unicode映射、BPE编码和正则分词功能。其中图像预处理将输入调整为1008×1008分辨率并转换为模型所需格式,分词器则提供文本编码功能,支持特殊token处理。整个流程为ONNX模型
2026-01-03 20:46:58
775
1
原创 openvino同步和异步推理
摘要:本文介绍了两种OpenVINO推理方式:同步推理和异步推理。同步推理会阻塞主线程直到推理完成,适合单任务场景;异步推理在后台执行,提高吞吐量,适合实时应用。代码示例展示了YOLOv8模型的加载、预处理、推理结果处理流程,并比较了两种方式的性能差异(同步FPS 27.90)。异步推理通过AsyncInferQueue实现多请求并发处理,提升效率。
2025-12-02 08:23:43
411
原创 模型流水线推理
摘要 本文展示了流水线并行处理技术在Python中的实现。通过串行和并行两种方式对比处理数据,并行版本采用多线程和队列实现任务分解与流水线执行。在示例中,串行处理每个数据需要1秒,而并行处理首数据1秒后,后续数据仅需0.5秒,效率提升显著。随后将流水线技术应用于图像推理任务,构建了包含图像加载、预处理和模型推理的三阶段处理流程。测试表明,流水线并行能有效提高处理效率,特别适合计算密集型任务的批处理场景。
2025-12-02 08:06:20
307
原创 tensorrt自定义fp16插件
本文介绍了如何在PyTorch自定义算子基础上编写支持FP16的TensorRT插件。主要内容包括: 自定义PyTorch模型导出ONNX模型,包含自定义算子的实现和属性设置 TensorRT插件开发,实现了IPluginV2DynamicExt接口,支持FP16推理 插件包含两个构造函数,分别用于引擎构建和推理阶段 实现了必要的插件方法如序列化、反序列化、格式支持检查等 提供了FP16和FP32两种精度的CUDA核函数实现 该方案展示了将自定义PyTorch算子高效转换为TensorRT插件的过程,支持F
2025-12-01 08:55:27
1023
原创 tensorrt自定义算子编写的两种方法
本文介绍了如何在PyTorch中导出包含SVD运算的ONNX模型,并为其开发TensorRT插件。主要内容包括: 在PyTorch中定义包含torch.svd的模型,并注册自定义符号函数以支持ONNX导出,注意处理ONNX SVD算子与PyTorch的返回值差异。 导出ONNX模型的结构展示,包含输入和三个输出(U, S, V)。 开发TensorRT插件流程: 下载TensorRT 10.6.0.26库和源码 创建svdPlugin插件类,继承IPluginV2DynamicExt接口 实现插件核心功能,
2025-12-01 08:29:25
868
原创 模型部署在docker中对外提供服务
本文实现了一个基于Flask的图像分类API服务,使用MobileNetV2模型进行图像识别。主要功能包括:1) 提供数值处理接口;2) 实现图片分类功能,返回Top3预测结果;3) 通过Docker容器化部署。项目结构包含Flask主程序、依赖文件和Docker配置,支持两种请求方式:处理数值数组(/predict)和图片分类(/classify)。测试表明,系统能正确识别公交车图像并返回概率分布,数值处理功能也正常运行。该服务通过Docker部署在9201端口,调用方可通过HTTP请求获取预测结果。
2025-11-16 22:10:55
225
原创 open3d使用gpu加速icp
本文展示了使用Open3D库实现多尺度ICP配准的方法。通过源点云和目标点云("cloud_bin_0.pcd"和"cloud_bin_1.pcd"),设置不同体素大小、收敛准则和最大对应距离进行多尺度ICP配准。程序分别在CPU和CUDA设备上运行,记录运行时间和配准精度(fitness和inlier RMSE)。结果显示,迭代过程中fitness从64.02%提升至80.06%,RMSE从0.1435降至0.1089。该方法可有效实现点云配准,并支持性能分析和参数
2025-11-16 22:09:35
485
原创 FastSAM模型onnxruntime和tensorrt部署
本文介绍了FastSAM模型在ONNXRuntime和TensorRT框架下的部署方法。首先展示了如何将PyTorch模型导出为ONNX格式,并提供了ONNXRuntime的完整推理脚本,包括图像预处理、模型推理、后处理(NMS、掩膜处理)和结果可视化。然后简要提及了TensorRT的部署方案,虽未提供完整代码,但表明可通过类似流程实现。两种部署方式均支持目标检测和实例分割任务,能够处理输入图像的尺寸变换、预测框解码、置信度过滤、非极大值抑制等关键步骤,最终输出带有类别、分数和掩膜的可视化结果。
2025-11-10 08:42:51
270
3
原创 模仿学习模型idp3部署
本文介绍了将IDP3模型转换为ONNX格式并进行推理的完整流程。首先通过GitHub下载Improved-3D-Diffusion-Policy代码,编写ONNX导出脚本加载预训练模型并导出ONNX格式。随后分别给出了ONNX Runtime和TensorRT两种推理实现方案:ONNX推理脚本展示了如何使用onnxruntime进行模型推理,而TensorRT脚本则通过trtexec工具将ONNX转换为TensorRT引擎,并提供了完整的CUDA加速推理示例。文中还包含了用于TensorRT缓冲区和流管理的
2025-11-10 08:07:27
385
原创 lerobot框架部署diffusion policy模型
文章摘要:该代码实现了一个基于扩散策略的机器人动作生成模型,主要修改了src/lerobot/policies/diffusion/modeling_diffusion.py文件。核心功能包括: 实现Diffusion Policy算法,通过动作扩散学习视觉运动策略 包含输入/输出数据的归一化和反归一化处理 使用队列缓存历史观测数据和动作轨迹 提供动作预测方法predict_action_chunk和动作选择方法select_action 支持图像和环境状态特征处理 包含模型重置功能,用于环境重置时清空缓存
2025-11-02 22:10:25
683
原创 lerobot框架部署act模型
摘要 本文介绍了Action Chunking Transformer (ACT)模型的关键实现细节,该模型用于细粒度双手机器人操作。主要修改包括: 在src/lerobot/policies/act/modeling_act.py文件中实现了ACTPolicy类,继承自PreTrainedPolicy 提供了模型初始化、优化参数获取、动作选择等功能 实现了reset()方法用于环境重置时清除动作队列 包含select_action()方法处理单个动作选择,通过动作队列管理实现高效执行 支持时间集成(tem
2025-11-02 22:09:39
667
原创 DEIMv2模型onnxruntime和tensorrt部署
文章摘要:本文介绍了DEIMv2模型在ONNX Runtime和TensorRT两种环境下的部署方法。通过Python代码示例演示了图像预处理、模型推理和后处理流程,包括保持宽高比的图像缩放、边界框调整和结果可视化。两种部署方式都支持目标检测任务,能够处理输入图像并输出检测框、类别和置信度分数。ONNX Runtime使用CPU执行,而TensorRT则利用CUDA加速,展示了深度学习模型在不同推理引擎上的实现方式。
2025-10-24 08:55:12
587
1
原创 DEIM模型onnxruntime和tensorrt部署
本文展示了DEIM模型在ONNX Runtime和TensorRT两种框架下的部署实现。两种方案都包含图像预处理、模型推理和后处理三个主要步骤。预处理部分采用resize_with_aspect_ratio函数保持图像宽高比并进行填充,推理部分分别使用ONNX Runtime和TensorRT加载模型执行预测,后处理通过draw函数绘制检测框和类别标签。两种方案的核心区别在于:ONNX Runtime使用CPU执行,而TensorRT通过CUDA引擎实现GPU加速。代码提供了完整的端到端部署流程,从图像加载
2025-10-24 08:31:45
249
原创 DINOv3分类网络onnxruntime和tensorrt部署
本文介绍了DINOv3视觉模型的三种部署方式:PyTorch推理、ONNX Runtime部署和TensorRT部署。在PyTorch部分,详细展示了模型加载、图像预处理和推理过程,并提供了将模型导出为ONNX格式的代码。ONNX Runtime部分说明了如何加载ONNX模型并进行推理,包括图像预处理和推理执行步骤。TensorRT部署部分则着重介绍了显存需求(约30GB)和推理流程,包括引擎加载、缓冲区分配和推理执行。三种方式均提供了完整的代码示例,涵盖了从图像预处理到最终推理输出的完整流程。
2025-10-20 20:38:48
763
原创 DINOv2分类网络onnxruntime和tensorrt部署
DINOv2模型部署指南:提供ONNX Runtime和TensorRT两种部署方式。首先从GitHub下载DINOv2源码,通过PyTorch导出ONNX模型(输入尺寸700x700)。ONNX模型结构包含多层Transformer模块。ONNX Runtime部署时需进行图像预处理(归一化、标准化),TensorRT部署需转换引擎文件并使用CUDA加速。两种方式最终输出分类结果,通过argmax获取预测类别。包含完整的预处理流程和推理代码示例,支持CPU和GPU加速。
2025-10-20 20:12:44
372
1
原创 DINO分类网络onnxruntime和tensorrt部署
本文介绍了DINO模型的两种部署方式:ONNX Runtime和TensorRT。首先展示了PyTorch推理和ONNX模型导出的代码,包括图像预处理、模型构建和权重加载。接着分别给出ONNX Runtime和TensorRT的推理脚本,详细说明图像预处理流程和推理步骤。两种部署方式都能正确识别测试图像中的公交车(类别636)。代码包含完整的预处理、模型加载和推理过程,适用于计算机视觉任务的模型部署实践。
2025-10-15 20:34:50
421
原创 point-transformer模型tensorrt推理部署
本文介绍了对Point-Transformer代码库的修改方案,主要涉及CUDA和PyTorch版本兼容性问题以及ONNX模型导出优化。首先需要将多个CUDA源文件中的THC头文件引用替换为ATen库引用,包括aggregation、grouping等核心模块。其次针对ONNX模型导出,重点修改了sampling模块的三个关键文件:重新实现了采样内核头文件,更新了CUDA接口实现,并优化了采样内核计算逻辑。这些修改确保了代码能够适配较新的CUDA和PyTorch版本,同时支持高效的ONNX模型导出。
2025-10-15 19:55:10
817
原创 knnQuery自定义tensorrt算子编写
本文介绍了如何将点云KNN查询操作导出为ONNX模型并转换为TensorRT插件。首先通过PyTorch定义了一个包含pointops.knnquery运算的模型,并导出为ONNX格式。然后详细描述了TensorRT插件的实现过程,包括创建knnQuery.h头文件和knnQuery.cpp源文件,其中定义了插件类knnQuery及其creator类,实现了必要的接口如初始化、执行、序列化等功能。该插件能够处理动态输入维度,支持CUDA加速计算,最终将点云KNN查询操作高效部署到TensorRT推理引擎中。
2025-10-12 10:33:42
603
原创 furthestSampling自定义tensorrt算子编写
本文介绍了如何将点云采样算法转换为TensorRT插件,主要包含两个部分:(1) 使用PyTorch导出ONNX模型;(2) 编写TensorRT插件实现。首先通过Python代码定义自定义模型并导出为ONNX格式,然后详细展示了C++实现的TensorRT插件类结构,包括插件初始化、维度计算、执行逻辑等核心功能。该方案使用TensorRT 10.6.0.26版本,通过封装CUDA核函数实现高效的点云最远点采样,适用于深度学习推理加速场景。
2025-10-12 10:21:41
492
原创 pointconv模型onnxruntime和tensorrt部署
本文介绍了PointConv模型的部署方法,包括ONNX Runtime和TensorRT两种方式。首先从GitHub下载源代码并自行训练模型。ONNX部署部分展示了如何将PyTorch模型导出为ONNX格式,并提供了Python推理脚本。TensorRT部署部分说明了如何将ONNX模型转换为TensorRT引擎,并给出了对应的推理代码示例。两种部署方法都支持动态批量处理,并提供了从预处理到模型推理的完整流程,适用于3D点云分类任务。
2025-10-08 10:58:38
310
原创 onnx模型和tensorrt模型的量化标定
ONNX和TensorRT模型量化工具对比 ONNX模型量化: 提供动态量化功能,支持权重和激活值的INT8量化 包含模型验证、量化执行和模型比较完整流程 主要功能包括: 动态量化模型权重 比较量化前后模型输出差异 计算模型大小压缩比例 使用onnxruntime量化接口实现 TensorRT模型量化: 基于INT8熵校准器实现 使用CUDA进行数据预处理和传输 支持校准缓存文件的读写 主要功能包括: 批处理数据准备 数据从主机到设备的内存拷贝 校准缓存管理 两种量化方法都旨在优化模型推理性能,但实现方式不
2025-10-08 09:05:31
268
vtk7.0.0-msvc2015-qt5.9.1-win64
2024-11-29
vtk9.1.0-msvc2019-qt5.14.2-win64编译包
2024-10-18
yolov5-v7.0网络分类、检测和分割OpenCV C++部署demo
2024-11-23
VS2019+CUDA11.1 Release x64编译的OpenCV4.5.5(带CUDA和contrib模块)
2024-11-23
中心线提取-GPU加速
2024-11-23
texture mapping纹理贴图
2024-11-23
ICP算法加速优化-多线程和GPU
2024-11-20
Open3D-v0.17.0-cuda11.1-msvc2019-win64.zip
2024-11-06
open3d-0.15.2-cp38-cp38-win-amd64.whl
2024-11-06
opencv4.10.0-cuda12.5.0-cudnn9.2.0-msvc2022-win64编译包
2024-10-23
opencv4.10.0-cuda12.5.0-cudnn9.2.0-python3.10.15编译包
2024-10-23
opencv4.9.0-cuda11.1-cudnn8.0.4-msvc2019-win64编译包
2024-10-08
pcl1.12.0-cuda11.1-cudnn8.0.4-msvc2019-win64编译包
2024-10-18
两百行C++代码实现yolov5车辆计数部署
2024-06-10
pyqt界面 计算树木las点云的树高、胸径、地径和冠幅面积
2024-06-01
点云裁剪界面qt+pcl+vtk
2024-05-27
orb slam+orb slam2+orb slam3 配好环境的虚拟机
2026-02-21
slam14讲配好环境的虚拟机
2026-02-21
pcl+vtk+qt环境配好的win10虚拟机
2026-02-21
openmvg+openmvs配好的虚拟机环境
2026-02-21
pcl+vtk+qt在线一键安装工具
2026-02-21
线激光网课相关视频和代码
2026-02-15
yolo目标检测线程池高性能视频tensorrt推理(每秒1400帧)代码
2026-01-30
yolov5 rk3588视频线程池推理190+FPS代码
2026-01-27
opencv4.10.0 Windows .cache包
2025-12-11
opencv4.10.0-cuda12.5.0-cudnn9.2.0-msvc2022-win64带cuda、dnn、xfeatures2d、nonfree的编译包 包含debug和release
2025-12-08
opencv4.11.0 Linux.cache包
2025-12-08
opencv4.11.0 Windows .cache包
2025-12-08
opencv4.12.0 Windows .cache包
2025-12-08
opencv4.12.0 Linux.cache包
2025-12-08
pcl+vtk+qt在线一键安装工具
2025-12-06
车流量多路视频实时统计
2025-12-06
线结构光平面方程标定程序
2025-11-15
vtk8.2.0-msvc2019-qt5.15.2-win64编译包
2024-12-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅