- 博客(20)
- 收藏
- 关注
原创 使用官方bag运行slam_toolbox建图(ros2环境)
rosbags-convert不依赖 ROS 1 或 ROS 2 的运行环境,只需安装 Python 和 rosbags 库即可运行。下次建图时可以通过参数 map_file_name 加载接着跑:map_file_name: /home/ubuntu/my_map。队列满了 → 丢旧的或丢新的(取决于实现)TRANSIENT_LOCAL:新订阅者也能收到之前发过的最后一条(比如 /map)它和 base_link 的关系是一个固定的外参(安装位置)。KEEP_ALL:所有消息都存下来(几乎不用,内存爆)
2025-12-11 15:20:55
617
原创 YoLov11后处理流程
把模型原始预测 preds=(det, proto) 先做 NMS,再把 coef × proto 解码为实例掩码,并把框从输入尺度映射回原图尺度,最后打包为 Results(一图一个)。等比例缩放得到 180×320,但为了对齐 32,会 pad 到 192×320。预测结果 =(det_output, proto_output)原始图像: (360, 640)设置:imgsz=320。
2025-10-05 23:07:27
1118
1
原创 conda网络问题
需要修改隐藏文件 .condarc文件的内容,具体路径为:c:\users\用户名\.condarc。使用记事本打开,复制下面这一段进去替换掉原本所有的内容,替换完之后保存即可。
2025-09-22 14:25:09
216
原创 【论文解读】LLMDet: Learning Strong Open-Vocabulary Object Detectors under the Supervision of Large
训练目标是让图像整体(整张图)和对应的文本(如一句描述)之间进行对齐。比如:“A dog playing with a ball.” ←→ 图像整图它并不区分图中具体哪一块区域是“dog”,哪块是“ball”。这就是所谓的图像级目标,也称为“图文对齐而非区域对齐”。
2025-05-07 14:59:59
1000
原创 【论文解读】YOLO-World: Real-Time Open-Vocabulary Object Detection
方向QueryKey/Value输出作用图像特征文本加权图像表示引导视觉关注文本语义区域文本图像 Patch加权文本表示增强文本的视觉感知能力📌 I-Pooling Attention 实现了图像与文本的双向交互式建模,提升视觉-语言对齐与感知能力。why?原始文本向量 W 是 CLIP 离线编码而成的;可能缺少目标图像中实际存在的上下文信息;
2025-04-29 16:39:43
1410
原创 IoU、Confidence和NMS区别
IoU 是用于衡量两个边界框(bounding boxes)重叠程度的指标。具体来说,它是两个框的交集(Intersection)区域面积与它们的并集(Union)区域面积之比。Confidence 是目标检测模型在预测一个边界框时,对于该框包含某个目标的 信心度。它表示模型对某个框内是否包含目标的置信度评分,通常以一个 0 到 1 之间的数字表示。NMS 是一种常用的后处理方法,用于 去除冗余的框。
2025-04-21 17:05:14
939
原创 如何在 Git 中同步原始仓库的更新(含 Fork 和非 Fork 方法)
将本地提交推送到远程仓库,进入 GitHub 网站,你会看到有一个提示让你发起 Pull Request(PR),请求将 new-feature 分支的修改合并回 main 分支。你修改完 fork 的项目后,可以通过 PR 请求原作者审阅你的修改,并决定是否将你的更改合并到原项目中。:就像你在 GitHub 上“复制粘贴”了一份项目到你自己的账户里,之后你可以随意修改、创建分支,而不会影响原作者的代码。是你本地的分支名称,通常是主分支(如果你用的是 main,那就是 main)
2025-04-15 21:13:50
2301
原创 云 GPU
注释:8 GB GDDR5 ×2:有两个 GPU,每个 GPU 各有 8GB GDDR5,总共 16GB,但每个 GPU 只能访问自己的 8GB,使用上不如一整块 16GB。
2025-04-01 15:17:13
223
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅