公众号内容拓展学习笔记(2022.6.19)
📎 今日要点
-
改进Yolov5 | 用 GSConv+Slim Neck 一步步 Yolov5 再提升!!! ⭐️⭐️
- Abstract: 用 GSConv+Slim Neck 一步步 Yolov5 再提升!!!
- Paper: Slim-neck by GSConv: A better design paradigm of detector architectures for autonomous vehicles
- Tips: 本文引入了一种新方法
GSConv
来减轻模型的复杂度并保持准确性。GSConv
可以更好地平衡模型的准确性和速度。并且,提供了一种设计范式,Slim-Neck
,以实现检测器更高的计算成本效益。
-
重振PointNet++雄风!PointNeXt:通过改进的模型训练和缩放策略重新审视PointNet++ ⭐️⭐️
- Abstract: PointNeXt:通过改进的模型训练和缩放策略重新审视PointNet++
- Paper: PointNeXt: Revisiting PointNet++ with Improved Training and Scaling Strategies
- Code: https://github.com/guochengqian/pointnext
- Tips: 在这项工作中首先提出了一组改进的训练策略,显著提高了 PointNet++ 的性能。其次将倒置残差瓶颈设计和可分离 MLP 引入 PointNet++,以实现高效且有效的模型缩放,并提出 PointNeXt,即下一版本的 PointNets。
-
腾讯Lab:用Transformer振兴CNN骨干网络(附论文源代码下载) ⭐️⭐️
- Abstract: 腾讯Lab:用Transformer振兴CNN骨干网络(附论文源代码下载)
- Paper: Revitalizing CNN Attentions via Transformers in Self-Supervised Visual Representation Learning
- Code: https://github.com/ChongjianGE/CARE
- Tips: : 本文提出了一个利用 Transformer 结构来辅助 CNN 网络训练的视觉自监督表征学习框架。其核心贡献在于利用一种网络结构的特性(即 Transformer 的注意力提升特性),在训练中监督目标网络(即 CNN 骨干网络),从而使得网络特性能够得到迁移并提升目标网络性能的效果。
-
CVPR:IoU优化——在Anchor-Free中提升目标检测精度(附源码) ⭐️⭐️
- Abstract: IoU优化——在Anchor-Free中提升目标检测精度(附源码)
- Paper: Pseudo-IoU: Improving Label Assignment in Anchor-Free Object Detection
- Code: https://github.com/SHI-Labs/Pseudo-IoU-for-Anchor-Free-Object-Detection
- Tips: 研究者提出了伪IoU:一个简单的度量,带来更标准化和准确的分配规则到anchor-free目标检测框架没有任何额外的计算成本或额外的训练和测试参数,通过利用训练样本质量良好的有效分配规则使它可以进一步提高anchor-free目标检测,之前已经应用于基于anchor的方法。
-
详细解读TPH-YOLOv5 | 让目标检测任务中的小目标无处遁形 ⭐️⭐️
- Abstract: 详细解读TPH-YOLOv5 | 让目标检测任务中的小目标无处遁形
- Paper: TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-captured Scenarios
- Tips: TPH-YOLOv5在YOLOv5的基础上增加了一个prediction heads 来检测不同尺度的目标。然后通过探索Self-Attention的预测潜力使用了Transformer Prediction Heads(TPH)代替原来的prediction heads。
-
新技术:高效的自监督视觉预训练,局部遮挡再也不用担心! ⭐️⭐️
- Abstract: 新技术:高效的自监督视觉预训练,局部遮挡再也不用担心!
- Paper: Efficient Self-supervised Vision Pretraining with Local Masked Reconstruction
- Tips: 研究者提出了局部掩码重建(LoMaR),这是一种简单而有效的方法,它在简单的Transformer编码器上的7×7补丁的小窗口内执行掩码重建,与全局相比,提高了效率和准确性之间的权衡对整个图像进行掩码重建。
📎 Others
![](https://i-blog.csdnimg.cn/blog_migrate/cabff6a71845363c40633a27193b6657.jpeg)