自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

格物致知

笃学尚行,至于至善。专注!专注!专注!

  • 博客(661)
  • 资源 (16)
  • 收藏
  • 关注

原创 ORB-SLAM2中关键知识点理解( 地图点、关键帧、图结构)

0.1. ORB SLAM2的总体框架是怎样的?下图是论文里的原图,ORB SLAM2一共有三个线程,分别是Tracking,Local Mapping和Loop Closing,其中Tracking是负责提取关键点进行帧间匹配,并且初选关键帧,Loop Mapping是进行关键帧筛选和地图点剔除,同事进行一个局部优化,Loop Closing主要是进行回环检测。2. ORB SLAM2是怎样完成初始化的?在ORB SLAM2进行跟踪前,需要先进行初始化,初始化包括相机初始帧位姿,新建地图,新建关

2022-05-01 01:23:41 5528

原创 SVO(SVO: fast semi-direct monocular visual odometry)

SVO(SVO: fast semi-direct monocular visual odometry)翻译文章目录SVO(SVO: fast semi-direct monocular visual odometry)翻译1、介绍2、系统概述3、符号4、运动估计4.1、 基于稀疏模型的图像对齐4.2、 通过特征对齐松弛4.3、 姿态和结构优化4.4、 讨论5、建图6、 实施细节7、实验结果8、结论1、介绍摘要——半直接法消除了运动估计中昂贵的特征提取和匹配技术的需要,直接在像素级上操作,做到了在高帧

2021-11-23 08:42:20 5819

原创 ORB-SLAM2代码框架梳理与详细解析(共11章)

ORB-SLAM2代码详解文章目录ORB-SLAM2代码详解1. ORB-SLAM2代码详解01_ORB-SLAM2代码运行流程1 运行官方Demo1.2. 阅读代码之前你应该知道的事情1.2.1 变量命名规则1.3 理解多线程1.3.1 为什么要使用多线程?1.3.2 多线程中的锁1.4 SLAM主类`System`1.4.1 System`类是ORB-SLAM2系统的主类,先分析其主要的成员函数和成员变量:1.4.2 构造函数1.4.3 跟踪函数2. ORB-SLAM2代码详解02_特征点提取器ORB

2021-09-23 22:34:50 8394 1

原创 【SLAM】鹿明、它石、IO、GenRobot:具身智能赛道里,谁在做产品,谁在卖铲子?

具身智能赛道中,鹿明、它石、IO和GenRobot分别占据不同生态位。鹿明致力于构建“采集设备-数据-模型-场景”闭环,它石则以全栈技术押注超级具身智能系统。IO和GenRobot则聚焦基础设施层,前者提供机器人研发工具链,后者打造数据采集与治理平台。当前竞争呈现两极分化:鹿明与它石争夺具身智能入口,IO与GenRobot则在底层数据领域角力。行业头部效应明显,银河通用、智元等公司已形成第一梯队优势。未来行业价值将分布在机器人本体、数据、模型和场景四大节点,基础设施提供商可能形成更稳固的护城河。(149字)

2026-03-10 19:49:00 443

原创 【claw】 OpenClaw 的架构设计探索

OpenClaw AI Agent 架构解析:Core、Memory、Heartbeat 三核心机制构成自主智能系统。Core 作为大脑引擎负责任务解析、模型推理和技能调度;Memory 系统管理短期对话记忆和长期知识存储;Heartbeat 作为生命周期调度器实现定时任务和系统保活。三者协同工作形成完整的自主 Agent 循环(接收输入→推理决策→执行动作→更新记忆),使系统具备持续自主运行能力。这种模块化设计支持各组件独立扩展,为构建复杂AI应用提供灵活框架。

2026-03-07 11:06:39 325

原创 【claw】OpenClaw配置及其参数解读

【代码】【claw】OpenClaw配置及其参数解读。

2026-03-02 14:43:46 681

原创 【docker】实践入门

docker rundocker run [选项] 镜像名 [启动命令]这里最后的/bin/bash不用镜像默认启动命令而是直接启动 bash适合手动进入容器调试。如果不写,Docker 会执行 Dockerfile 里定义的CMD或ENTRYPOINT。

2026-02-27 14:31:23 601

原创 【数据格式】mcap 数据/rosbag 包/euroc 数据有什么差异和相同点

文章摘要:本文对比了MCAP、ROS 1 rosbag、ROS 2 rosbag2和EuRoC数据集四种机器人数据记录格式的核心差异。MCAP是通用日志容器格式,不依赖ROS,支持多通道消息存储和随机访问;ROS 1 rosbag是专用录包格式,绑定ROS 1;ROS 2 rosbag2采用插件式存储机制,支持MCAP或SQLite;EuRoC是数据集目录规范。表格对比了它们在本质、载体、ROS依赖、数据组织等方面的差异,并分析了底层文件结构特点。这些格式都能表达时间序列传感器数据,但适用场景不同:MCAP

2026-02-26 15:22:37 688

原创 【nanobot】工程配置后过于消耗token 有什么解决方案

直接运行(在 conda 环境里)可以,:一旦开了多工具、多轮对话、长上下文,token 会涨得很快。你这个仓库(HKUDS/nanobot)近期版本其实已经在做这件事:README 和 release notes 都提到了,并且已经支持。

2026-02-26 14:28:12 626

原创 【SLAM】为什么像orb slam,vins等视觉SLAM开源算法里,精度上双目常常低于单目?

摘要:开源视觉SLAM中双目精度常低于单目的深层原因并非理论缺陷,而是工程实现未充分发挥双目优势。关键因素包括:1) 双目深度测量对相机标定、同步、曝光一致性等条件极为敏感,错误深度会引入硬约束偏差;2) 低纹理/遮挡区域的错配深度比单目"无约束"更危害优化;3) 远距离场景下双目深度分辨率不足;4) 开源系统默认参数和评测标准往往偏向单目;5) 在VINS系统中,IMU已提供尺度约束,双目可能引入额外噪声源。本质上,SLAM精度取决于误差管理能力而非传感器数量,改进方向应聚焦标定质量验

2026-02-25 18:37:07 531

原创 【SLAM】GenRobot / IO-AI / Scale / Appen 能力对比表(机器人数据与闭环视角)

摘要: 本文对比了GenRobot、IO-AI、Scale AI和Appen在机器人数据与闭环视角下的能力差异。GenRobot和IO-AI更专注于具身智能垂直领域,提供从硬件采集到数据治理的全流程解决方案;Scale AI侧重物理AI数据平台,强调数据质量与工程服务;Appen则以通用AI数据采集与标注为主。各平台在时序同步、多模态支持、数据治理及合规性等方面各有侧重,需根据实际场景需求(如SLAM/轨迹重建)选择适配方案,部分技术细节需POC验证。

2026-02-25 18:02:13 663

原创 【SIFT】各特征点与传统SIFT的对比分析

本文对比分析了多种SIFT特征点实现与传统SIFT的差异。VLFeat SIFT在精度上略优(105%),适合COLMAP生态;OpenCV SIFT兼容性好,速度提升10%;AKAZE作为降级方案速度快2-3倍但精度较低(85%);GPU加速版本(PopSift/CUDA SIFT)速度提升4-10倍且保持精度。总结建议:精度优先选VLFeat SIFT,速度优先选GPU加速版本,通用场景选OpenCV SIFT,AKAZE仅作备用方案。不同实现的核心差异体现在精度、速度、硬件依赖和适用场景上。

2026-02-24 17:20:30 514

原创 【Sensor】IMU传感器选型车轨级 VS 消费级

IMU16460-DM 是“专业仪器”,而 LSM6DSV16X 是“多功能瑞士军刀”。如果你的问题是“如何测量到最准的数据”,答案是。如果你的问题是“如何在低功耗、小空间内实现足够好的运动感知,并还想加入一些智能”,答案是LSM6DSV16X。OV7251不参与IMU选型,它解决的是“看到”世界的问题,而IMU解决的是“感知到”自身运动的问题。如果系统需要两者,就都要选。

2026-02-14 18:08:54 702

原创 【Sensor】Cam传感器选型车轨级 VS 消费级

摘要: OG02B10(2MP)和OV7251(VGA)是OmniVision的两款全局快门传感器,适用于不同场景。OG02B10优势:更高分辨率(1600×1300)、大靶面(1/2.9英寸)、高红外灵敏度(114K e⁻)、支持DVP/MIPI双接口,适合工业检测、AR/VR及高清机器视觉。OV7251优势:低成本($5-$8)、高帧率(100fps@VGA)、低功耗,适用于扫地机器人、门锁等消费电子。选型建议:预算充足且需高画质选OG02B10;注重成本、功耗和开发速度选OV7251。

2026-02-14 17:52:40 563

原创 【Cursor】Cursor 配置记录

想让 Cursor 的界面看起来更像 VSCode,这个想法很自然。毕竟 Cursor 本身就是在 VSCode 的基础上开发的,只是默认的界面布局和视觉风格做了一些调整。只要简单几步,就能让它重回你熟悉的模样。你可以通过下面几个方面的调整,一步步把 Cursor 的界面“校正”回 VSCode 的风格。

2026-02-14 12:28:28 1297

原创 【VLM】从“评测哲学”和“技术本质”两个层面拆解 robochallenge 任务设计

这些能力标签在回答一个关键问题:具身模型到底在哪个环节出问题?分类测认知simple-pick 测抓取manipulation 测状态控制temporal 测记忆softbody 测物理理解它本质是一个“模型能力解剖系统”。

2026-02-13 16:36:35 1302

原创 【VLM】大模型训练范式深度解析:SFT 与强化学习的关系与边界

维度SFT (监督微调)RL (强化学习)核心目标教会模型“怎么说”,建立稳定的输出范式引导模型“说得更好”,激活高级策略数据依赖需要高质量的标注数据需要清晰的奖励信号和反馈机制能力边界擅长模仿和执行,激活基础能力擅长探索和优化,激活高级能力适用场景任务收敛、边界清晰、模式固定的场景需要策略优化、创造性输出的复杂场景总而言之,SFT是大模型对齐的“地基”,而强化学习则是“上层建筑”。在大多数情况下,先打好SFT的地基,再用RL进行拔高,是最高效、最稳妥的路径。

2026-02-12 16:49:38 667

原创 【efficient_QR】efficient_QR分解DSP设计:要点、难点及处理方式

本次设计围绕和开展DSP硬件实现,核心适配近似方阵(15×15~384×375),兼顾内存限制、计算性能与精度,以下为核心要点、设计难点及对应处理方式的简化总结。

2026-02-12 16:04:09 697

原创 【VLN】VLN Paradigm Alg:Reinforcement learning 强化学习及其细节(4)

强化学习(RL) 研究的是智能体如何通过与环境交互,以最大化累积奖励为目标来学习策略。监督学习则是通过标注数据,以最小化损失函数为目标来学习模型。

2026-02-11 21:58:04 679

原创 【pySLAM】pySLAM

pySLAM 凭借其 Python 的易用性和 C++ 的高性能,成为视觉 SLAM 领域一个极具价值的工具。它不仅降低了研究门槛,也为工程落地提供了灵活的框架。未来,随着更多深度学习模型和传感器的集成,pySLAM 将在空间 AI 领域发挥更大的作用。如果你需要,我可以帮你整理一份pySLAM 核心模块的详细技术文档,或者生成一个Windows 环境下的安装和运行指南,方便你直接上手。需要我帮你做吗?

2026-02-11 20:27:03 752

原创 【SLAM】Hydra-Foundations 层次化空间感知:机器人如何像人类一样理解3D环境

MIT SPARK实验室的最新研究《Foundations of Spatial Perception for Robotics》提出了突破性的层次化3D场景图表示方法,解决了传统SLAM系统在语义理解和可扩展性方面的局限。该研究通过理论证明层次化图具有小树宽特性,支持高效推理,并开发了基于持久同调的房间分割、神经树架构等创新算法。集成系统Hydra在真实机器人平台上实现了实时性能,显著提升了机器人对复杂环境的理解能力。这项工作为机器人空间感知建立了新范式,将几何SLAM与神经符号推理相结合,为未来大规模应

2026-02-11 19:25:52 1490

原创 【VLN】VLN Paradigm Alg:模仿学习及其细节(3)

3. 模仿学习3.1 Teacher-forcing 与 Student-forcing 的异同点与搭配使用3.1.1 核心定义(一句话区分)3.1.2 Teacher-forcing(教师强制 · 离线演示)3.1.3 使用方式(训练流程)3.1.4 本质3.1.5 优点3.1.6 致命缺陷:暴露偏差(Exposure Bias)3.2 Student-forcing(学生强制 · 交互式演示)3.2.1 使用方式(训练流程)3.2.2 本质3.2.3 优点3.2.4 缺陷3.3 能否搭配使用?

2026-02-09 17:31:00 660

原创 【xhs】记录 2025-2026 年的工程记录

该项目在GitHub上记录了2025-2026年的工程开发日志,包含详细的文件记录和开发过程截图。通过平台截图可见项目采用标准化的文档管理方式,包括工程进度跟踪、文件归档等。图片展示了清晰的目录结构和文档格式,体现了规范化的项目管理流程。该项目适合作为软件开发过程管理的参考案例。

2026-02-09 12:28:28 82

原创 【VLN】VLN从理论到实践的完整指南VLN-Tutorial

视觉语言导航(VLN)是让智能体根据自然语言指令在3D环境中自主导航的技术,核心挑战在于语言、视觉和空间三模态的对齐。主流方法从早期RNN序列建模发展到基于Transformer的端到端模型,最新趋势是融合多模态大模型(如LLM)。实践方面需搭建仿真环境、处理数据集并训练模型,评估指标包括成功率和路径长度。VLN在服务机器人、智慧家居等领域有广泛应用前景。研究建议从R2R数据集入手,逐步引入大模型提升性能。该技术正朝着更自然的语言交互和零样本迁移方向发展。

2026-02-08 22:30:49 742

原创 【VLN】VLN仿真与训练三要素 Dataset,Simulators,Benchmarks(2)

模块核心内容核心特点(Core Features)1. 将场景离散化为拓扑图(Discretize scenes into a topological graph)2. 智能体仅能通过图中的节点进行导航(Agent navigates only through graph nodes)仿真观测空间(Simulation Observation Space)1. 12张RGB-D图像(每张视场角30°)2. 当前空间位置3. 附近可导航点(按与当前朝向的角度排序,第一个点为当前位置)

2026-02-08 18:29:16 780

原创 【VLN】VLN技术栈模块对接清单

VLN技术栈对接摘要(150字) 本文提供视觉语言导航(VLN)主流技术栈的快速对接方案,覆盖三大仿真平台与核心基准任务。Habitat平台推荐R2R+MP3D组合,通过habitat-lab库实现指令解析与导航评估;AI-THOR需适配R2R指令至ProcTHOR场景,使用vln-bert工具转换坐标;Isaac Suite侧重机器人物理交互,需将VLN任务转化为ObjectNav形式。各平台均提供标准环境安装脚本和核心对接代码示例,包含观测获取、动作执行与指标计算(导航误差、成功率等)的关键接口。开发者

2026-02-08 17:58:17 669

原创 【VLN】VLN(Vision-and-Language Navigation视觉语言导航)算法本质,范式难点及解决方向(1)

VLN定义:这个和深度模型的训练大同小异训练数据集 MP3D 主要训练数据集任务描述:一段描述路径的文字,限定了途径点,以及结束的位置。起始条件: 机器人预先不知道环境的任何信息,从描述的起点出发。成功条件:机器人到目标点,做出结束动作,即为成功VLN的Agent – 以R2R为例:构型:虚拟的Agent观测空间:360°RGB 图像,深度图像动作空间:前进,左转,右转,停止Agent在空间里遵循预定义的拓扑图运动人类的视角来完成一次VLN任务VLN的任务特点。

2026-02-07 23:26:03 1094

原创 【Embodied】人形机器人后市场四大挑战与解决方案全解析

摘要:随着人形机器人即将量产,后市场服务面临四大核心挑战:1)多维度故障诊断难,需建立数字孪生体系实现精准定位;2)备件管理复杂,采用ABC分类+AI预测实现智能调度;3)技术人才稀缺,构建分层认证体系+在线学习平台;4)软硬件迭代不同步,通过硬件预留和接口标准化解决。企业应重点布局标杆客户、服务网络、认证体系等五大方向,后市场将成为行业新增长点,具备工业服务经验的团队将占据优势。

2026-02-07 22:01:23 624

原创 【LingBot-Depth】深度补全/单目深度估计算法/立体匹配算法

LingBot-Depth是灵波科技开发的高精度空间感知模型,通过掩码深度建模和RGB-D预训练数据,显著提升复杂场景的深度输出质量。该技术将缺失深度数据视为"自然掩码",利用跨模态学习补全空间信息,在深度补全、单目深度估计和立体匹配任务中表现优异。相比传统方法,LingBot-Depth能在透明/反光材质场景实现更精准的深度感知,为机器人提供更可靠的空间认知能力。

2026-02-07 21:07:48 597

原创 【SLAM新范式】几何主导=》几何+学习+语义+高效表示的融合

SLAM领域正经历从几何主导到多模态融合的范式变革。本文精选六大前沿研究:1)SLAM-Former首次用Transformer统一SLAM前后端;2)MAGiC-SLAM采用3D高斯泼溅实现高质量重建;3)RUSSO实现声呐-视觉-IMU深度融合;4)SPAQ-DROID通过剪枝量化实现边缘设备部署;5)Hier-SLAM引入LLM构建语义地图;6)FoundationSLAM提出首个SLAM基础模型。这些工作展现了SLAM向智能化、语义化、轻量化的发展趋势,正从定位工具向具身智能核心组件演进。

2026-02-07 16:31:04 695

原创 【LingBot-Depth】Masked Depth Modeling for Spatial Perception

RGB-D图像对:这是其最核心的输入模式。即来自标准消费级深度相机(如Intel RealSense, Orbbec Gemini)的RGB彩色图像和与之对齐的、可能包含大量数据缺失(“黑洞”)和噪声的原始深度图。单张RGB图像:在仅有彩色图像的情况下,模型也能工作,此时它执行的是单目深度估计任务,仅根据视觉信息推断场景的几何结构。• 算法创新:采用“掩码深度建模”范式,将硬件缺陷转化为学习信号,而非简单剔除。

2026-01-31 18:35:43 726

原创 【嵌入式】RK3588性能及其对应竞品情况

以下是针对嵌入式场景的核心参数对比,涵盖算力、功耗、接口与成本,可直接用于选型参考:

2026-01-27 17:53:11 1196

原创 【DSP】DSP核心组件 SM算法部署

把它当成“专属快递员”:专门负责数据运输,不用麻烦“大脑”(DSP Core)亲自跑,让核心能专心算SLAM算法。把它当成“翻译官+快递站”:一边把外部设备的“外语”转成内部硬件的“母语”,一边把数据整理好交给下一个环节。把它当成“项目交付”:经过前面所有环节的计算,最终把机器人的“位置报告”和“环境地图”交给用户或机器人系统。把它当成“高速货架”:常用的原始数据和运算结果都放在这里,运算单元随时能快速拿到需要的“材料”可以把传感器理解成“眼睛+平衡感”:相机负责“看”环境,IMU负责“感知自己怎么动”

2026-01-23 14:16:56 1191

原创 【DSP】不同机器同一个程序 bit不一致的原因

文章摘要: 本文针对跨平台开发中出现的浮点运算不一致问题,提出了基于CMake的完整解决方案。通过控制CMAKE_AR工具链版本和位数一致性,确保PC与DSP编译环境对齐。具体措施包括:1) 硬编码指定MSVC工具集路径;2) 强制设置/fp:precise浮点模式;3) 禁用运算重排优化。方案提供三种实现方式:直接修改CMakeLists.txt、通过工具集版本间接控制、命令行参数配置,并详细说明了验证方法和注意事项,确保计算结果的跨平台一致性。

2026-01-22 18:48:17 1052

原创 【Embodied】具身智能基础模型发展

本文脑图基于 Google DeepMind、Stanford、UC Berkeley、NVIDIA 公开论文整理,完整 PDF 目录见原文《VLM_VLA.pdf》。

2026-01-21 19:46:00 822

原创 【WorldVLA】LM/VLA/World Model 三者差异

VLM是基础,VLA是VLM的具身延伸,世界模型是对物理世界的深度建模,三者正从独立走向统一。在SLAM与自动驾驶中,VLA适合实时交互与可解释决策,世界模型适合长期预测与安全预演,融合方案将是未来主流方向。WorldVLA的核心是“单Transformer统一架构+三模态离散token+双向增强训练+注意力掩码”,把VLA的动作生成与世界模型的未来预测在同一自回归框架内融合,实现“感知-理解-行动-预测”闭环,同时用掩码阻断动作生成的误差累积。以下是融合逻辑与组件链路的完整拆解。

2026-01-21 16:06:34 1006

原创 【Project Aria】Meta新一代的AR眼镜及其数据集

Meta推出的Project Aria新一代数据集AEA(Aria Everyday Activities)为计算机视觉研究提供了丰富的多模态数据。该数据集包含: 多传感器数据:110° RGB相机、150°单目相机(SLAM/手部追踪)、80°红外单目相机(眼动追踪)、IMU、麦克风阵列等 新增标注:眼动追踪、优化3D轨迹、半稠密点云等 应用场景:涵盖烹饪、运动等日常活动 数据集通过传感器融合技术(如GNSS辅助定位、接触式麦克风降噪等)提升数据质量,为AR/VR研究提供支持。相关工具和数据集已开源。

2026-01-20 16:09:33 3002

原创 【XR 】XR 公司核心玩家(SLAM)

2026-01-20 14:06:52 533

原创 【Embodied】VLM / VLN / VLA在具身智能中的角色与使用方式

VLM 决定认知上限VLN 决定任务表达能力VLA 决定商业可行性。

2026-01-20 10:39:23 946

原创 【SEVIS】An Efficient Schmidt-EKF for 3D Visual-Inertial SLAM

本文提出了一种高效的Schmidt-EKF算法(SEVIS)用于3D视觉-惯性SLAM系统。核心创新包括:1)将Schmidt卡尔曼滤波(SKF)整合到视觉惯性SLAM中,通过将收敛的地图特征转为"冗余参数"并保留交叉相关性,将计算复杂度从O(n²)降至O(n);2)采用关键帧辅助的2D-to-2D特征匹配方案,提高稀疏场景下的数据关联可靠性;3)设计三级特征分类机制(VIO/SLAM/地图特征),实现差异化更新策略。这些创新协同解决了传统SLAM中精度与效率的矛盾,在移动设备等资源受限

2026-01-19 19:57:46 878

联合标定(camrea,imu,ladar,vicon)_imu数据处理系统

联合标定原理及其实现

2021-01-19

data-and-code.zip

双目立体视觉重建精度上限评估,付代码与数据,可以直接使用或者学习。

2024-01-29

linux scientific network

scinetic internet surfing

2024-01-11

XPNusing recore and linux essential soft

scinetic internet surfing

2024-01-05

Pytorch学习记录分享13-OCR(Optical Character Recognition,光学字符识别)

OCR(Optical Character Recognition,光学字符识别)指提取图像中的文字信息,通常包括文本检测和文本识别。

2024-01-04

Pytorch学习记录分享12-CycleGAN 对抗生成网络变体

CycleGAN 对抗生成网络变体项目实例

2024-01-04

Pytorch学习记录分享11-PyTorch GAN对抗生成网络

GAN对抗生成网络实例

2024-01-03

标定iphone手机相机内参标定,标定板

标定板

2023-12-26

mnist 用于手写体训练与测试,这里包含完整的链接

https://blog.csdn.net/Darlingqiang/article/details/135138471?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22135138471%22%2C%22source%22%3A%22Darlingqiang%22%7D

2023-12-21

SuperPointPretrainedNetwork.zip

SuperPointPretrainedNetwork for slam frontend (conmtaing KLT )tracking without lower texture environment using by python , you can run it directly and without any change . datya in also in this repo files

2023-10-01

cpu_trace用与不他欧冠平台的性能测试工具

性能测试接口封装

2022-08-03

cmakelists文件架构组织

cmakelists文件架构组织

2022-08-03

eigen相关接口与基本单元测试

eigen相关接口与基本单元测试

2022-08-03

eigen测试工程,可以直接使用

eigen 测试工程 可以直接使用 方便eigen相关的基础的功能实测

2022-05-03

svo_pro_src.zip

svo_2

2022-01-14

svo_pro_single_src.tar.xz

svo_pro_single

2022-01-17

svo2_dependency.zip

svo pro 3rd party ros version

2022-01-14

fisheye_calibration.zip

OpenCV标定鱼眼镜头(C++)

2022-01-09

cmake_pro_ws.tar.xz

cmake project use to learn cmaklists

2021-12-17

draw_depthmap_pointcloud.rar

将深度图转换到某一坐标系下

2021-03-17

test_base_opencv.rar

基于opencv验证,opencv库函数的test测试工具,widows系统,opencv3.3

2021-02-25

ransac.rar

随机抽样一致性算法实现

2021-02-25

sdk_for_thinmanmini.rar

opencv链接,cmkelist小样,window下opencv配置直接运行,用于思路验证,点提取,点匹配,利用ceres求解

2021-01-31

draw_depth_map.rar

深度图彩色映射,可视化工具

2021-01-19

bp神经网络

自写bp神经网络主程序

2016-12-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除