2023 减少人工标注,获取大量数据的能力

关键词:
零样本泛化能力模型
半监督

减少人工标注成本:
1、CVPR 2023 | 单阶段半监督目标检测SOTA:ARSL https://zhuanlan.zhihu.com/p/620076458
2、CVPR 2023 | 标注500类,检测7000类!清华大学等提出通用目标检测算法UniDetector https://zhuanlan.zhihu.com/p/620076458

通过实验发现,在具有大量类别的目标检测数据集LVIS、ImageNetBoxes和VisualGenome上,UniDetector表现出强大的零样本泛化能力(也就是数据集中参与训练的图像样本为0个),超过传统监督算法平均4%以上!而在另外13个具有不同场景的目标检测数据集上,UniDetector仅使用3%的训练数据就实现了最先进的性能!

3、最强Zero-Shot视觉应用:Grounding DINO + Segment Anything + Stable Diffusionhttps://zhuanlan.zhihu.com/p/620271321

最强的Zero-Shot检测器 使用这个部分进行数据标注

4、标注方式变化,不是人工画框这种方式,而是,通过语言描述,对数据进行,图像+文本,训练,训练最佳模型,也是可以的
ECCV2022 | RU&谷歌提出用CLIP进行zero-shot目标检测!​
https://zhuanlan.zhihu.com/p/546614635

5、如何评价Meta/FAIR 最新工作Segment Anything?

这再次验证了data-centric AI是未来。读了下论文,模型没有什么特别之处,亮点在数据标注。我先介绍下什么是data-centric AI,再分析这篇论文。

GroundingDINO
https://www.zhihu.com/question/593888697/answer/2976688654?utm_id=0

以数据为中心的,+ 强化学习+反馈模型,自动标注数据,从提高数据标注和数量入手

6、目标检测创新:一种基于区域的半监督方法,部分标签即可

研究者们提出了一种基于区域的半监督算法,该算法可以自动识别包含未标记前景对象的区域

7、SegGPT:在上下文中分割一切
这不就是想要的数据标注能力吗,一个目标物体,找到大量未标记图片中的物体

和 SAM 相比,视觉模型的 In-context 能力是最大差异点 :
SegGPT “一通百通”:可使用一个或几个示例图片和对应的掩码即可分割大量测试图片。用户在画面上标注识别一类物体,即可批量化识别分割出其他所有同类物体,无论是在当前画面还是其他画面或视频环境中。
SAM“一触即通”:通过一个点、边界框或一句话,在待预测图片上给出交互提示,识别分割画面上的指定物体。
这也就意味着,SAM的精细标注能力,与SegGPT的批量化标注分割能力,还能进一步相结合,产生全新的CV应用。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值