图像标注,三倍加速:谷歌AI新方案,数据民工的福音 | Demo可玩耍

膘栗子 发自 凹非寺
量子位 报道 | 公众号 QbitAI

640?wx_fmt=gif

标注数据,可能是AI模型训练里最艰巨的一个部分了。

计算机视觉首当其冲,标注图像需要投入大量人力。

比如,在Coco-Stuff数据集里,标好一幅图需要19分钟,164,000幅就超过5万小时了。

于是,谷歌AI团队开发了一种新的方案,官方表示可以3倍提升标注速度。

640?wx_fmt=gif

方法名叫Fluid Annotation (流体标注) ,借助机器学习的力量来贴类别标签 (Class Labels) 、勾出每个物体的轮廓和图片里的背景,为人类减轻压力。

谷歌AI把这项研究称作“尝试加速数据标注的第一步”,也即将在ACM MM 2018大会上演示这一步。

怎么用呢?

这个方法,从预训练的语义分割模型Mask R-CNN的输出开始,生成大约1,000个图像片段 (Image Segments) ,每个片段有自己的类别标签置信分

(每个像素都要被划入一个类别,比如花、树、人、路等等。)

置信分最高的那些片段,就可以传到人类那里进一步做标注。

640?wx_fmt=gif

人类,可以在一个操作板上修改机器分割的结果。

比如,修改某个片段现有的标签,例如把坦克改成汽车

比如,加入一个片段,来弥补缺失的物体,也可以删除片段:

640?wx_fmt=gif

再有,可以调整重叠片段的深浅顺序,上移这个片段,下移另一个片段:

640?wx_fmt=gif

团队提供了一个demo,里面有五个样本,大家可以自己去调一调看 (传送门在文底) 。

效果能超过纯人类么?

现在,把流体标注 (人机协作) 的效果,和人类辛勤劳作的结果对比一下。

640?wx_fmt=png

 左为原图,中为人类标注,右为流体标注

肉眼看去,AI标注的效果已经和人类相差无几。

谷歌团队在博客里表示,人类标注在物体边界的把握上依然略胜一筹。

所以,下一步的研究重点,就是加强边界的标注。

当然,速度也要继续提升啦。

Demo传送门:
https://fluidann.appspot.com/

论文传送门:
https://arxiv.org/pdf/1806.07527.pdf

加入社群

量子位AI社群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;


此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。


进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)

活动策划招聘

量子位正在招聘活动策划,将负责不同领域维度的线上线下相关活动策划、执行。欢迎聪明靠谱的小伙伴加入,并希望你能有一些活动策划或运营的相关经验。相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

640?wx_fmt=jpeg

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值