膘栗子 发自 凹非寺
量子位 报道 | 公众号 QbitAI
标注数据,可能是AI模型训练里最艰巨的一个部分了。
计算机视觉首当其冲,标注图像需要投入大量人力。
比如,在Coco-Stuff数据集里,标好一幅图需要19分钟,164,000幅就超过5万小时了。
于是,谷歌AI团队开发了一种新的方案,官方表示可以3倍提升标注速度。
方法名叫Fluid Annotation (流体标注) ,借助机器学习的力量来贴类别标签 (Class Labels) 、勾出每个物体的轮廓和图片里的背景,为人类减轻压力。
谷歌AI把这项研究称作“尝试加速数据标注的第一步”,也即将在ACM MM 2018大会上演示这一步。
怎么用呢?
这个方法,从预训练的语义分割模型Mask R-CNN的输出开始,生成大约1,000个图像片段 (Image Segments) ,每个片段有自己的类别标签和置信分。
(每个像素都要被划入一个类别,比如花、树、人、路等等。)
置信分最高的那些片段,就可以传到人类那里进一步做标注。
人类,可以在一个操作板上修改机器分割的结果。
比如,修改某个片段现有的标签,例如把坦克改成汽车。
比如,加入一个片段,来弥补缺失的物体,也可以删除片段:
再有,可以调整重叠片段的深浅顺序,上移这个片段,下移另一个片段:
团队提供了一个demo,里面有五个样本,大家可以自己去调一调看 (传送门在文底) 。
效果能超过纯人类么?
现在,把流体标注 (人机协作) 的效果,和人类辛勤劳作的结果对比一下。
△ 左为原图,中为人类标注,右为流体标注
肉眼看去,AI标注的效果已经和人类相差无几。
谷歌团队在博客里表示,人类标注在物体边界的把握上依然略胜一筹。
所以,下一步的研究重点,就是加强边界的标注。
当然,速度也要继续提升啦。
Demo传送门:
https://fluidann.appspot.com/
论文传送门:
https://arxiv.org/pdf/1806.07527.pdf
— 完 —
加入社群
量子位AI社群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)
活动策划招聘
量子位正在招聘活动策划,将负责不同领域维度的线上线下相关活动策划、执行。欢迎聪明靠谱的小伙伴加入,并希望你能有一些活动策划或运营的相关经验。相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态