自监督论文阅读笔记 Self-EMD: Self-Supervised Object Detection without ImageNet

文章介绍了一种名为Self-EMD的自我监督学习方法,用于目标检测,无需依赖ImageNet。通过在COCO等非标志性数据集上训练,Self-EMD保留了空间结构,利用EMD计算嵌入间的相似性。与依赖以对象为中心的预训练数据集不同,Self-EMD在多对象图像上训练,减少噪音影响。通过用卷积特征图替代全局池化,它保持了空间信息,增强了目标检测性能。
摘要由CSDN通过智能技术生成
       提出了一种新的自我监督表示学习方法 Self-EMD,用于目标检测。Self-EMD直接在 COCO 等未标记的非标志性图像数据集上进行训练,而不是像 ImageNet 这样常用的标志性目标图像数据集。Self-EMD将卷积特征图作为图像嵌入来 保留空间结构,并采用EMD来计算两个嵌入之间的相似性。受益于 更多未标记数据 的优点。
       自监督学习流程的潜在先验 是同一图像的不同视图/裁剪对应于同一对象。因此 最大化他们的一致性 可以学习有用的特征。这个关键的先验实际上高度 依赖于预训练数据集的 潜在偏差:ImageNet 是一个以对象为中心的数据集,可确保潜在先验。
       · ImageNet :由于图像被预先裁剪为以对象为中心,因此同一图像的不同裁剪来自同一对象。
       · COCO: 每张图像都包含多个对象,不同的裁剪可能对应不同的对象。这种不一致的噪音可能会 损害自我监督学习方法的有效性。
       从 实例级分类任务 中学习到的独特表示可能不适合对象检测。由于它应用全局池化层来生成向量嵌入,它可能会 破坏图像空间结构 并 丢失局部信息,而 检测器需要对空间定位敏感。
       本文没有使用全局池化,而是 将卷积特征图作为图像嵌入,保留局部和空间信息。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值