- 博客(26)
- 收藏
- 关注
原创 通用灵巧手抓取算法UniDexGrasp++ (2023 ICCV)程序测试
需要下载datasetv4.1_posedata.npy。和UniDexGrasp一样,参考。
2025-01-07 14:24:24
226
原创 GraspNet在Ubuntu20.04和Window11系统下运行成功
1. (https://github.com/graspnet)下载代码graspnet-baseline, graspnetAPIgraspnet-baseline建议下载这上面的代码git clone https://gitcode.com/open-source-toolkit/5d806.git,因为原始代码版本太老了, 原始代码版本knn在高版本torch下编译需要修改。2. ubuntu环境:cuda11.3 python3.8 pytorch1.12.0可运行3. window环境: cud
2024-12-19 15:49:26
414
2
原创 gazebo仿真bug解决
可能原因,零件太小,缺少固定,受到仿真环境中重力影响,将改零件的惯性参数设置为0;以上原因都有可能,建议删除所有link,然后逐渐加载,定位到出问题的零件。可能原因1,模型的pid参数设置存在问题,调小模型的pid参数;可能原因,模型文件存在mass为0,检测urdf模型文件;可能原因2,模型与地面碰撞导致,修改模型与地面的距离;4. 加载的模型乱动后趴在地上不动。3. 加载的模型零件乱飞。1. 加载的模型不全。2. 加载的模型抖动。
2024-10-21 10:32:33
375
原创 从导出URDF文件开始,Gazebo仿真空间中实现五指机械手运动模型,并基于Mediapipe进行遥操作控制
参考连接:【从零开始的ROS四轴机械臂控制】(二) - ROS与Gazebo连接,Gazebo仿真及urdf文件修改_rviz修改urdf模型-CSDN博客
2024-10-15 15:33:04
242
原创 五指灵巧手ShadowHand urdf模型在ros工作空间测试
五指,24个自由度,手腕2个自由度,大拇指5个自由度,尾指5个自由度,其他手指4个自由度,总计24个自由度
2024-09-05 15:52:45
839
1
原创 多指灵巧手AllegroHand urdf模型在ros工作空间测试
每个手指4个自由度,共16个自由度;其中拇指1侧摆,1选择,2弯曲;其他三指1选择,3弯曲。AllegroHand 介绍。
2024-09-05 15:25:15
632
原创 机器人灵巧手手内物体旋转操作In-Hand Object Rotation via Rapid Motor Adaptation (hora) 论文程序复现
【代码】机器人灵巧手手内物体旋转操作In-Hand Object Rotation via Rapid Motor Adaptation (hora) 论文程序复现。
2024-09-04 17:58:02
652
原创 通用灵巧抓取UniDexGrasp(CVPR2023)程序运行遇到的问题及解决方案
他们将灵巧手抓取物体的过程分为两个阶段,第一阶段针对物体点云输入生成若干静态抓取手势,从中挑选一个作为目标手势之后,第二阶段使用基于目标手势的强化学习策略来执行抓取。数据集:https://mirrors.pku.edu.cn/dl-release/UniDexGrasp_CVPR2023。代码:https://github.com/PKU-EPIC/UniDexGrasp。参考:https://zhuanlan.zhihu.com/p/650320613。第一阶段手势生成算法。
2024-09-03 17:33:58
938
3
原创 PointNet++程序速通(一)
链接:https://pan.baidu.com/s/10Nk4Zd3S_NklY5PJwzmnWA。分割网络输出为:维度[n, m], n表示点云集中点的个数,m的大小取决与类别数量;输入点云集:X, 维度[n,3],n表示点云集中点的个数,3表示空间坐标xyz;y = f(X) = B(Maxpool(A(X))), A, B表示神经网络;分类网络输出为:y, 维度k,k的大小取决与类别数量;输入输出与PointNet一致。
2024-07-18 14:01:46
293
原创 Pytorch中网络结构的可视化——使用graphviz+torchviz来可视化模型速通
【代码】Pytorch中网络结构的可视化——使用graphviz+torchviz来可视化模型速通。
2024-07-17 17:02:16
545
原创 Vision-based Robotic Grasping: Papers and Codes
【代码】Vision-based Robotic Grasping: Papers and Codes。
2024-07-10 14:45:47
167
原创 YOLO应用
配置环境:pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple。下载代码:git clone https://github.com/ultralytics/yolov5.git。创建虚拟环境:conda create -n yolo python=3.8。yolov5 安装运行。
2024-06-03 14:44:07
667
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人