- 博客(1907)
- 资源 (2)
- 收藏
- 关注
原创 (7-4)力觉与触觉感知:多模态接触感知模型
本文提出了一种多模态触觉表征学习框架AnyTouch,通过构建多传感器触觉数据集TacQuad,实现了静态图像与动态视频的统一表征学习。该框架采用多层次结构设计,结合掩码建模、多模态对齐和跨传感器匹配任务,有效提升了模型对触觉细节的捕捉能力和跨传感器泛化性能。实验表明,AnyTouch在触觉感知任务中表现优异,为人形机器人提供了稳定的触觉感知基础,使其能够像人类一样融合视觉与触觉信息进行精细操作。该技术通过统一处理不同传感器的触觉数据,显著提升了机器人在抓取、操控等任务中的稳定性和灵活性。
2026-03-11 10:53:05
381
3
原创 (7-3)力觉与触觉感知:皮肤触觉阵列
(3)下面代码的功能是实现滑移检测核心模块TactileSlipDetection类,继承压力成像功能,生成物体滑动过程中的动态压力矩阵,计算压力变化率,基于阈值进行滑移指示和滑移比例计算,确定滑移中心(CoS),并提供完整的滑移检测可视化,包括滑移比例随时间变化、滑移区域热力图、压力变化率热力图以及初始与滑动后压力对比。总而言之,压力成像将离散的触觉传感信号映射为连续、可分析的二维压力分布,不仅可用于物体形状识别和接触位置定位,还可用于动态力控和滑移检测,是机器人实现精细触觉感知和抓取控制的重要基础。
2026-03-11 10:48:56
155
1
原创 (7-2)力觉与触觉感知:力控相关传感
摘要:本文探讨了人形机器人力控传感技术,重点分析了关节力矩估计和抓取稳定性两大核心问题。在关节力矩估计方面,介绍了直接测量法、电流观测法、动力学模型推算法和卡尔曼滤波融合四种方法,通过仿真对比了各方法的精度差异。在抓取稳定性方面,基于摩擦锥理论分析了法向力与切向力的关系,模拟了稳定、临界和失稳三种抓取场景。研究通过可视化实验展示了力矩估计效果和抓取稳定性判断,为机器人力控系统提供了重要的理论基础和实现方法。这些技术为人形机器人实现精确操作、柔性抓取和平衡控制奠定了关键基础。
2026-03-10 10:29:10
504
3
原创 (7-1)力觉与触觉感知:足底感知
本文系统介绍了人形机器人足底感知技术,包括足底压力分布获取、零力矩点(ZMP)计算及其在姿态控制中的应用。通过离散传感点重构足底受力分布,结合低通滤波和归一化处理,可准确判断机器人支撑状态。ZMP作为平衡控制的核心指标,通过加权平均法计算,并与IMU数据融合提高估计精度。文章还提供了Python实现案例,模拟不同姿态下的压力分布特征,并可视化静态和动态步态中的ZMP轨迹变化,验证了足底感知在稳定行走控制中的关键作用。
2026-03-10 10:25:25
393
2
原创 (6-4-02)IMU融合与机体状态估计:综合实战:腿式机器人的IMU关节融合与状态估计(2)
本文介绍了人形机器人状态估计系统的核心算法实现,主要包括三个关键模块:1) IMU数据传播与补偿模块,实现惯性导航状态更新和误差补偿;2) 静态初始对准模块,通过采集IMU和传感器数据计算初始姿态、陀螺仪零偏和足端位置;3) 扩展卡尔曼滤波(EKF)模块,融合IMU与关节传感器数据估计机器人位姿及IMU误差。系统采用机械运动传播、状态转移矩阵更新、测量更新和状态反馈修正的完整流程,实现了从原始传感器数据到高精度导航状态估计的全链路功能,为人形机器人提供实时运动状态监控和误差补偿能力。
2026-03-09 13:38:51
477
5
原创 (6-4-01)IMU融合与机体状态估计:综合实战:腿式机器人的IMU关节融合与状态估计(1)
本文介绍了一个基于IMU和关节编码器数据融合的腿式机器人状态估计项目。该项目通过Python实现,可处理宇树科技Unitree Go2机器人的ROS2数据,无需完整ROS2环境。核心内容包括:1)配置文件定义传感器参数和机器人几何参数;2)工具模块提供数据结构、坐标转换、数据加载等功能;3)实现IMU和关节数据的流式处理;4)提供轨迹可视化工具。该系统采用EKF算法融合多源传感器数据,能够估计机器人的姿态、位置等运动状态,为腿式机器人导航研究提供了基础框架。
2026-03-09 13:36:14
483
原创 通用AI Agent:从被动应答到主动执行的智能系统全解
《AIAgent架构设计与实现》系统解析了下一代智能系统的核心技术,突破传统AI仅能被动应答的局限,实现"感知-决策-执行"的闭环能力。本书由腾讯T4级专家领衔编写,提供从理论到实践的完整指导,重点阐述分层架构设计、多Agent协作机制等关键技术,并涵盖智能客服、自动驾驶等典型应用场景。通过11章内容构建完整知识体系,帮助开发者掌握AIAgent的核心架构与实现方法,实现从"使用AI"到"创造智能系统"的能力跃迁,为把握AI技术浪潮提供专业指导。
2026-03-08 21:21:03
615
1
原创 (6-3)IMU融合与机体状态估计:IMU与关节编码器融合
摘要:本文研究了IMU与关节编码器融合技术在双足机器人运动控制中的应用。通过EKF算法实现多源传感器数据融合,有效补偿了IMU的漂移误差,提高了状态估计精度。针对音叉步态特性,利用周期性约束构建漂移补偿模型,并基于D-H参数实现全身状态估计。仿真实验表明,该方法能显著降低姿态漂移(俯仰角误差≤0.5°)和位置误差(10m行走误差≤5cm),为机器人步态控制提供了可靠的状态反馈。该技术无需外部定位设备,适用于室内环境下的双足机器人稳定行走控制。
2026-03-08 21:19:38
586
原创 (6-2)IMU融合与机体状态估计:IMU与视觉融合
摘要:本文研究了IMU与视觉融合的视觉惯性里程计(VIO)技术,分析了两种融合架构:松耦合(EKF滤波)和紧耦合(非线性优化)。通过仿真实验对比纯IMU、松耦合VIO和优化式VIO的性能,结果表明:1)纯IMU导航存在随时间累积的漂移误差;2)松耦合VIO结构简单但精度有限;3)优化式VIO通过滑动窗口优化和预积分技术,能更有效地抑制IMU漂移,实现高精度位姿估计。实验数据显示,优化式VIO在X轴和Z轴的位置误差分别比纯IMU降低85%和90%以上,验证了视觉惯性融合在机器人导航中的优越性。
2026-03-06 10:51:56
661
2
原创 (6-1)IMU融合与机体状态估计:惯性导航基础
本文系统介绍了IMU融合在机器人状态估计中的应用。首先阐述了惯性导航基础,包括四元数与旋转矩阵的姿态表示方法,以及加速度积分过程中误差漂移的产生机理。重点分析了IMU与视觉信息的融合思想,介绍了VIO的基本框架及优化式方法。进一步讨论了IMU与关节编码器的融合策略,包括步态运动中的漂移补偿方法。通过人形机器人SLAM仿真实验,直观展示了纯IMU导航的姿态偏离和位置漂移特性,验证了误差随时间累积的发散现象,说明必须融合外部信息才能实现长期稳定估计。
2026-03-06 10:49:25
492
1
原创 (3-2)视觉感知: 目标检测与分类
请看下面的实例,以人形机器人抓取物体场景为背景,实现了基于CNN(YOLOv8)和Transformer(DETR)的目标检测与分类操作,重点演示了小目标检测(如桌面小螺丝)和遮挡目标处理(如被机械手遮挡的水杯)的实现过程,并通过可视化对比展示两类模型的检测效果。现代检测网络通常结合 CNN 与 Transformer 的优势,实现小目标和遮挡目标的鲁棒检测。并给出在机器人视觉场景下的应用建议,CNN与Transformer融合模型,同时兼顾局部特征(小目标)和全局特征(遮挡目标),形成完整的检测策略。
2026-03-05 11:13:13
530
1
原创 (3-1)视觉感知:图像处理基础
本章系统介绍了视觉感知的基础知识,重点讲解了相机模型、标定与畸变矫正等关键技术。通过针孔相机模型详细阐述了三维点到二维图像的投影过程,区分了内参和外参的作用,并说明了相机标定的意义与流程。针对人形机器人应用场景,特别分析了外参动态性问题及畸变矫正的重要性。通过实例3-1完整演示了相机标定与畸变矫正的全过程,包括棋盘格生成、3D点投影、畸变模拟与矫正等环节,最终以4张子图直观展示了标定结果和矫正效果,为人形机器人视觉系统提供了可靠的空间感知基础。
2026-03-05 11:10:32
721
1
原创 (5-4)点云处理与三维识别:障碍物检测
本文系统介绍了移动机器人和人形机器人环境感知中的障碍物检测技术。主要内容包括:1)障碍物分类(静态/动态障碍物)及其检测方法;2)静态障碍物检测的传统几何方法和深度学习方法;3)动态障碍物检测与轨迹预测技术;4)基于LiDAR点云的障碍物检测实战案例。文章重点阐述了点云处理流程(地面分割、聚类、边界框生成)和算法实现,通过Python代码展示了完整的三维环境感知解决方案。障碍物检测作为机器人导航的基础模块,其准确性直接影响系统的安全性和可靠性。
2026-03-04 11:13:29
486
4
原创 (5-3)点云处理与三维识别:地面分割与可行走区域识别
本文介绍了地面分割与可行走区域识别技术在机器人感知系统中的关键作用。主要内容包括:1)基于模型的地面拟合方法,如平面模型、RANSAC算法和局部地面模型;2)基于学习的可行走性预测方法,利用深度学习处理复杂地形;3)实践部分展示了一个基于ROS2和LeGO-LOAM的LiDAR点云地面分割程序,详细解析了其算法流程和代码实现。该技术能够有效区分地面与障碍物,为机器人导航和路径规划提供重要支持。
2026-03-04 11:11:39
494
原创 (5-2)点云处理与三维识别:三维目标识别
本文介绍了人形机器人三维目标识别技术,包括三维目标检测和三维分割两大核心模块。三维目标检测通过体素化(Voxel-based)或原始点云(Point-based)技术路线,实现目标定位和分类;三维分割则对点云进行像素级语义划分,分为语义分割和实例分割。文章详细阐述了两种技术的核心任务、评价指标、主流算法及场景适配策略:Voxel-based方法计算效率高,适合实时导航;Point-based方法精度高,适合精细操作。最后通过Open3D实战案例,展示了从点云生成、预处理到目标检测和分割的完整流程,为机器人导
2026-03-03 10:47:16
789
2
原创 (5-1)点云处理与三维识别:点云预处理
摘要:本章系统介绍了人形机器人点云处理与三维环境理解的关键技术。首先阐述了点云预处理方法,包括滤波、降采样以及ICP与NDT点云配准算法;然后讲解了三维目标识别技术,涵盖3D检测与语义分割方法;接着分析了地面分割与可行走区域识别技术;最后介绍了障碍物检测与运动预测方法。通过Open3D实战演示了点云预处理和ICP配准流程,展示了从原始点云到精准对齐的完整处理过程,为人形机器人环境感知提供了技术支撑。
2026-03-03 10:44:55
733
1
原创 (4-4-02)三维环境建模与SLAM:人形机器人SLAM特性(2)
激光SLAM系统实现三维定位与地图构建,核心功能包括:1) 点云预处理模块实现LiDAR数据的时间同步、去畸变和帧处理;2) IMU数据校正与缓存;3) LiDAR-IMU时间同步机制;4) 基于KD树的局部地图动态更新;5) 点云坐标系转换与发布。系统通过ICP配准和卡尔曼滤波实现高精度位姿估计,支持地图分块管理和实时可视化,最终输出彩色3D点云地图和机器人运动轨迹。实验效果显示系统能准确重建室内环境结构并持续跟踪移动轨迹。
2026-03-02 13:51:19
715
5
原创 (4-4-01)三维环境建模与SLAM:人形机器人SLAM特性(1)
摘要:本文探讨了人形机器人SLAM系统的独特挑战与解决方案。相比传统轮式机器人,人形机器人面临三大核心问题:1) 动态环境处理,需通过运动一致性检测、语义分割等方法识别并剔除动态物体;2) 步态运动带来的高位移噪声与抖动,采用IMU紧耦合融合和鲁棒优化策略抑制误差;3) 感知-运动耦合误差,通过滑动窗口优化和机械减振降低影响。文中以宇树科技人形机器人SLAM系统为例,详细介绍了参数初始化、IMU数据处理和点云预处理等关键模块的实现方法。这些技术有效提升了人形机器人在复杂动态环境中的定位与建图精度。
2026-03-02 13:48:34
748
原创 学透自动驾驶路径规划:用 Python 把算法从 “会用” 变成 “会造
《Python路径规划与决策算法》是一本聚焦自动驾驶核心技术的实战指南。该书系统讲解从Dijkstra、A等基础算法到D、RRT等高级算法的完整知识体系,通过"原理拆解+Python实现+场景落地+优化技巧"的全链路模式,帮助读者掌握路径规划与决策算法的底层逻辑。书中包含15+个高仿真实战项目,覆盖静态、动态及复杂道路场景,并兼容ROS、Gazebo等工具链,可直接应用于工程实践。本书特别适合希望从"算法调用者"进阶为"算法掌控者"的开发者,能有效
2026-03-01 15:44:36
586
1
原创 (4-3)三维环境建模与SLAM:视觉SLAM
视觉SLAM(VSLAM)通过相机捕获图像序列进行位姿估计和环境重建。本文对比了特征点法和直接法两种VSLAM方法:特征点法通过提取SIFT等特征点实现稀疏重建,计算量小但易受重复纹理影响;直接法利用像素灰度信息进行位姿优化,能生成半稠密地图,精度更高但对光照敏感。实验模拟棋盘格场景显示,优化后的特征点法提升了重复纹理的鲁棒性,而直接法在位姿估计和重建密度上表现更优。两种方法各有优势,可根据场景需求选择或结合使用。
2026-03-01 15:40:55
668
原创 (4-2)三维环境建模与SLAM:LiDAR SLAM
(1)下面代码的功能是提供人形机器人LiDAR SLAM所需的核心工具函数,包括生成模拟的LiDAR点云数据(模拟机器人沿 X 轴移动、小幅旋转的步行状态,为点云添加噪声贴合真实测量场景)、实现ICP扫描匹配(完成点云下采样、法向量计算等预处理,通过点到平面ICP算法实现帧间位姿估计,输出匹配后的位姿和点云)、构建全局点云地图(将各帧点云投影到全局坐标系,通过体素滤波减少冗余点、剔除离群点,生成全局一致的环境地图)。随着点云规模的增大,直接对所有点进行匹配会带来较高的计算开销。
2026-03-01 15:38:01
606
原创 打破AI“调包式”学习壁垒——《人工智能线性代数基础》重磅来袭
《人工智能线性代数基础》一书聚焦AI与数学的深度结合,系统讲解线性代数在机器学习、深度学习等领域的核心应用。全书12章分为基础夯实与进阶应用两大部分,通过理论讲解+代码实践的方式,将向量、矩阵等数学概念与神经网络、推荐系统等AI模型有机结合。本书特色在于打破传统教材重理论轻实践的局限,每个知识点都配有AI场景案例,帮助读者从"调包"升级到理解模型底层逻辑。适合AI学习者、开发者和高校师生使用,旨在培养用数学思维解决AI问题的核心能力,实现从基础到前沿的知识跨越。
2026-03-01 15:33:00
506
原创 (4-1)三维环境建模与SLAM:SLAM基础
摘要:本文系统介绍了三维环境建模与SLAM技术的核心理论与实现方法。重点阐述了误差状态卡尔曼滤波(ESKF)在非线性系统中的应用机理,包括状态分解、名义状态预测、误差线性化传播和观测更新等关键步骤。通过人形机器人步行场景的实例,展示了ESKF如何融合IMU和视觉观测数据,实现位置、姿态、速度及IMU偏置的精确估计。实验结果表明,该方法在小范围步行场景下可获得平均位置误差0.02-0.04m、姿态误差0.005-0.01rad的精度,验证了ESKF在动态环境下的有效性和鲁棒性。
2026-02-27 10:47:00
906
4
原创 (3-5-02)综合实战:人形机器人多目标视觉跟踪系统(2) 多目标跟踪算法+人体姿态估计+图像分割
本文介绍了多目标跟踪(MOT)算法的实现架构。系统采用模块化设计,在"boxmot/trackers"目录下封装了多种跟踪算法(如StrongSORT、BotSORT等),通过基础跟踪器类BaseTracker提供统一接口,支持标准/旋转边界框、类别跟踪和ReID功能。tracker_zoo.py实现动态实例化,通过TRACKER_MAPPING映射算法类型到具体实现,支持参数配置和ReID权重加载。此外,系统还集成了人体姿态估计(KeypointR-CNN)和图像分割(MaskR-CN
2026-02-27 10:43:56
753
2
原创 (3-5-01)综合实战:人形机器人多目标视觉跟踪系统(1) 目标运动建模+外观重识别
本文介绍了BoxMOT多目标视觉跟踪系统在人形机器人中的应用。该系统整合了多种先进跟踪算法(如ByteTrack、BoT-SORT等),支持与各类检测模型无缝对接。核心模块包括:1)基于卡尔曼滤波的运动建模,包含旋转框(OBB)和轴对齐框(AABB)两种跟踪模型,采用"冻结-回放"机制提升遮挡场景下的跟踪稳定性;2)基于深度学习的外观重识别(ReID)模块,通过特征提取和相似度计算保持目标身份一致性。系统提供了完整的评估管道和模型管理工具,能够有效处理复杂场景下的多目标跟踪任务。
2026-02-26 10:50:25
790
4
原创 (3-4)视觉感知:姿态估计与人体识别
摘要: 姿态估计与人体识别通过2D/3D骨架建模实现动作分析与行为理解。2D骨架基于图像关键点检测,轻量高效但缺乏深度信息;3D骨架通过RGB-D或多视角生成,解决遮挡问题,适用于机器人交互与运动捕捉。行为识别利用CNN、GCN或Transformer对骨架序列进行时空建模,实现动作分类与意图预测,应用于人机协作、安防监控及康复训练。结合多模态数据,该技术为智能系统提供核心感知能力。
2026-02-26 10:46:52
497
2
原创 (3-3)视觉感知:实例分割与语义分割
本文系统介绍了机器人视觉中的实例分割与语义分割技术。2D图像分割通过FCN、U-Net等模型实现像素级分类,而3D重建与分割则利用立体视觉、深度学习等方法恢复场景三维结构。通过实战演练,展示了如何将RGB-D数据转换为3D点云,并实现语义和实例分割。实验结果表明,该方法能有效识别桌面场景中的目标物体(如盒子、水杯、螺丝),为机器人抓取、避障等任务提供精确的空间和语义信息。2D分割与3D重建相结合,构成了机器人智能感知系统的核心技术模块。
2026-02-25 10:53:30
804
3
原创 (3-2-01)视觉感知:目标检测与分类
请看下面的实例,以人形机器人抓取物体场景为背景,实现了基于CNN(YOLOv8)和Transformer(DETR)的目标检测与分类操作,重点演示了小目标检测(如桌面小螺丝)和遮挡目标处理(如被机械手遮挡的水杯)的实现过程,并通过可视化对比展示两类模型的检测效果。现代检测网络通常结合 CNN 与 Transformer 的优势,实现小目标和遮挡目标的鲁棒检测。并给出在机器人视觉场景下的应用建议,CNN与Transformer融合模型,同时兼顾局部特征(小目标)和全局特征(遮挡目标),形成完整的检测策略。
2026-02-25 10:48:18
775
1
原创 (3-1-02)视觉感知:从像素到语义:人形机器人的相机标定与畸变矫正
本文演示了人形机器人视觉系统中相机标定与畸变矫正的全流程。通过模拟生成棋盘格图像和精准内角点,采用张正友标定法求解相机内参矩阵和畸变系数,避免了真实场景中角点检测失败问题。实验模拟了相机镜头畸变效果,对比展示了抓取目标(水杯)在畸变前和矫正后的视觉差异,并实现了3D世界坐标到2D图像平面的投影,标记了机器人抓取目标的空间位置。结果显示平均重投影误差小于0.5像素,标定精度良好。通过4张子图直观呈现了标定棋盘、畸变图像、矫正结果和核心参数,为机器人视觉感知提供了鲁棒性强的解决方案。
2026-02-24 11:08:29
800
2
原创 (3-1-01)视觉感知:从像素到语义:图像处理基础
本文系统介绍了视觉感知系统中的图像处理基础技术。首先阐述了相机模型与标定的核心概念,包括针孔相机模型的数学表达、内外参数定义及标定流程,特别分析了人形机器人场景下外参动态性问题。随后详细讨论了畸变矫正技术,涵盖径向/切向畸变的成因、数学模型和矫正方法,并指出其在机器人距离估计和多传感器融合中的重要性。文章强调,精确的相机标定和畸变矫正是实现可靠视觉感知的基础,为人形机器人的目标检测、三维理解等高级任务提供准确的几何支撑。
2026-02-24 11:06:02
898
1
原创 (2-2)常用传感器与基础原理:MU与惯性测量+力觉与触觉
总之,低频漂移与高频噪声是 IMU 数据中不可避免的两类误差,通过硬件优化、滤波算法、多传感器融合与动态标定,可有效抑制噪声、修正漂移,实现人形机器人在动态、高自由度动作和复杂环境下的精确姿态感知和可靠控制。总而言之,通过加速度计和陀螺仪的高频测量、低延迟输出,以及多传感器融合,IMU为人形机器人提供了可靠的动态姿态感知和运动控制基准,是机器人实现高自由度动作、环境适应和精细交互的核心模块。在人形机器人中,IMU数据的有效使用依赖于对高频噪声的抑制与低频漂移的校正,以保证姿态估计的稳定性和精度。
2026-02-14 08:58:51
735
2
原创 (2-1)常用传感器与基础原理:视觉传感器+激光雷达
摘要:本章系统阐述了人形机器人核心传感器技术,包括视觉、激光雷达、IMU和力触觉传感。视觉传感器涵盖RGB摄像头(环境感知与目标识别)、双目视觉(三维空间感知)和深度摄像头(ToF/结构光技术);激光雷达分为机械式(大范围高精度)和固态(轻量化低延迟),用于环境建模与避障;IMU实现姿态感知;力触觉传感支持平衡控制与人机交互。多传感器融合策略有效提升了机器人在复杂环境中的感知精度与系统鲁棒性,为自主导航、动态避障和精细操作提供了关键技术支撑。(149字)
2026-02-14 08:57:57
679
2
原创 (1-2)人形机器人感知系统概述:环境感知总体架构+“感知-控制-规划”的一体化趋势
摘要:人形机器人环境感知系统采用分层架构设计,包含传感器层(多模态数据采集)、感知算法层(信息处理与理解)和融合决策层(智能行为生成)。当前技术趋势正向"感知-控制-规划"一体化发展,通过数据共享、动态协同和端到端优化,解决传统串行架构在动态环境适应性、实时响应和复杂交互方面的局限。一体化架构面临多源数据融合、实时算力平衡、全局优化等挑战,其发展程度直接影响人形机器人从实验室走向实际应用的进程。该技术需要算法创新与硬件协同支撑,是行业竞争的核心领域。(149字)
2026-02-14 08:55:43
574
2
原创 (1-1)人形机器人感知系统概述: 人形机器人感知的特点与挑战
本章系统阐述了人形机器人感知系统的核心特点与关键技术挑战。首先分析了高自由度运动带来的多维度状态感知需求,以及动态稳定性维持对重心估计、零力矩点计算的严格要求。其次探讨了高维环境信息处理的难点,包括多模态数据融合、特征提取与语义理解等关键环节。最后深入剖析了复杂交互场景中的不确定性来源,包括交互主体意图模糊、对象属性未知等问题。针对这些挑战,本章提出了典型的人形机器人感知架构,包含传感器层、算法层和决策层三个层级,并介绍了当前行业前沿解决方案与发展趋势,为后续具体感知技术的讲解奠定理论基础。
2026-02-14 08:53:48
658
1
原创 《卷2:人形机器人的环境感知与多模态融合》
本文系统阐述了人形机器人环境感知与多模态融合的关键技术。从感知系统架构、多传感器原理(视觉、激光雷达、IMU、力觉等)入手,深入探讨了三维环境建模、SLAM、点云处理、状态估计等核心技术。重点分析了多模态数据融合理论与方法,包括低中高层融合策略及不确定性建模。结合大模型技术,探讨了视觉-语言模型、3D大模型在机器人感知中的应用。最后通过典型案例,展示了多模态感知在行走、抓取等任务中的实际应用,为构建智能人形机器人提供了全面的感知解决方案。
2026-02-13 10:07:25
775
2
原创 (11-4-03)完整人形机器人的设计与实现案例:盲踩障碍物
本文介绍了一种双足机器人在无视觉感知("盲踩")情况下跨越障碍物的仿真控制方法。通过步态调度器规划步态时序,足端放置规划器调整落足位置,结合MPC模型预测控制和WBC优先级控制算法,实时计算关节力矩。仿真中机器人以0.8m/s速度行走,通过提高抬脚高度(0.18m)和调整关节PD参数来适应障碍物冲击。系统记录接触力等数据用于分析,实现了在MuJoCo环境中仅依靠本体反馈的稳定越障能力。该方案为无环境感知条件下的机器人运动控制提供了参考。
2026-02-13 10:04:51
226
1
原创 (11-4-02)完整人形机器人的设计与实现案例:机器人跳跃
摘要:该代码实现了双足机器人跳跃控制的仿真系统,包含模型加载、模块初始化、参数配置和控制逻辑四个主要部分。系统基于MuJoCo物理引擎,通过0.001秒的固定时间步长进行仿真,集成了运动学求解器、MPC力控制器和PVT关节控制器等核心模块。控制过程分为准备、起跳、上升、下降和着陆五个阶段,采用状态机实现各阶段切换,通过MPC计算足端力指令并转换为关节力矩,结合PVT控制实现精确的关节位置控制。系统还实现了数据记录功能,可实时保存仿真时间、电机状态、机器人位姿等关键参数,为跳跃控制算法的验证和优化提供了完整的
2026-02-12 10:51:24
539
2
原创 (11-4-01)完整人形机器人的设计与实现案例:机器人的站立与行走
OpenLoong-Dyn-Control是一个基于MPC和WBC的仿人机器人运动控制框架,支持在Mujoco平台上实现行走、跳跃等复杂动作。该项目采用分层模块化设计,包含模型加载、状态估计、运动规划、WBC控制等核心模块。通过仿真程序演示了机器人从站立到行走的全过程:初始化各控制模块后,先保持站立姿态,3秒后开始迈步,5秒后以0.7m/s速度稳定行走。系统采用PVT关节控制器结合PD参数实现力矩控制,并实时记录关节状态、基座位姿等数据。实物样机已成功实现行走和盲踩障碍功能,验证了该框架的有效性。
2026-02-12 10:49:05
992
2
原创 (11-3)完整人形机器人的设计与实现案例(硬件设计、驱动接口和运动控制):硬件驱动接口
摘要: "loong_driver_sdk"是一个面向机器人及自动化设备的硬件驱动开发工具包,提供统一接口控制电机、传感器等设备。其核心功能包括: 多总线支持:通过单例模式管理CAN、EtherCAT、RS232/485等通信总线,支持设备初始化、实时数据交互及SDO/PDO协议通信。 实时控制:EtherCAT实现1kHz周期通信,通过域数据映射和线程绑定确保毫秒级关节控制;CAN总线适配SocketCAN与硬件抽象层,支持多设备协同。 安全机制:参数合法性校验(如扭矩限制)、数据超时
2026-02-10 10:52:59
868
2
文本分类与情感分析算法 数据集
2024-05-22
行为预测算法:基于自动驾驶大模型的车辆轨迹预测系统
2024-05-13
专栏《NLP算法实战》中第9部分《大模型Transformer》的所有配套源码
2024-04-24
斗转星移换图系统(PyTorch+Visdom+CycleGAN)源码
2024-04-24
Tensorflow机器翻译系统和PyTorch机器翻译系统
2024-03-22
AI智能问答系统的源码资料
2024-03-15
《基于深度强化学习的量化交易策略》一文的源码
2024-02-29
比特币价格预测系统的项目的源码和数据集
2024-01-13
我的专栏《大模型从入门到实战》2-1到2-3的配套源码,包含数据集
2024-01-11
金融大模型实战:个人专栏《检测以太坊区块链中的非法账户》项目的源码和数据集
2024-01-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅