少样本学习新突破!创新奇智入选ECCV 2020 Oral论文

点击上方“机器学习与生成对抗网络”,关注"星标"

获取有趣、好玩的前沿干货!

转自 创新奇智

近日,创新奇智有关少样本学习(Few-shot Learning)的研究论文《Prototype Rectification for Few-Shot Learning》被全球计算机视觉顶会ECCV 2020接收为Oral论文,入选率仅2%

ECCV全称为European Conference on Computer Vision(欧洲计算机视觉国际会议),与ICCV和CVPR合称为全球计算机视觉三大顶级会议,每两年举办一次。据大会官方介绍,本届会议共收到5025份有效投稿,共接收1361篇,录取率为27%,其中1361篇接收论文里面,有104篇Oral以及161篇 Spotlight,分别占比2%和5%,堪称史上最难ECCV

创新奇智CTO张发恩表示:“当前的深度学习技术对数据具有极大依赖性,如何减小数据依赖,利用较少的数据取得理想的识别效果成为当下亟待突破的技术难点。少样本学习旨在从已有类别的数据中学习先验知识,然后利用极少的标注数据完成对新类别的识别,打破了样本数据量的制约,在传统制造业等样本普遍缺失的领域具有实用价值,有助于推动AI落地。”

创新奇智本次发表的论文指出,少样本学习的瓶颈在于数据稀缺引起的偏差,主要包括类内偏差和跨类偏差,并提出相应方法有针对性地减小两项偏差。该思路经过严格的理论证明其合理性,并通过大量实验证明了方法的有效性,在少样本学习通用的数据集中达到了最优的结果。

以下为论文解读:

(论文初版arXiv地址为:https://arxiv.org/abs/1911.10713。后续Camera Ready版本将于近日更新,补充了更多数据集上的表现。)

1

概述

少样本学习(Few-shot learning)旨在从大量有标注数据的类别中学习到普遍的规律,利用学习到的知识,能够使用少量的有标注数据(如一张或五张)完成对新类别的识别。原型网络是少样本学习中一类非常有效的方法,其针对不同的类别提取出对应的类原型,然后根据样本与类原型之间的距离进行分类。由于新类别的样本数量极少,原型网络所计算出的类原型存在一定的偏差。

本文指出了制约原型网络效果的两个关键因素:类内偏差和跨类偏差,并且提出利用伪标签的方法减小类内偏差,利用特征偏移的方法减小跨类偏差,进一步通过理论分析指出原型网络准确率的理论下界,证明伪标签的方法可以提高理论下界从而提高整体准确率,最后,实验结果表明,本文的方法在miniImageNet和tieredImageNet上达到了最高水平的结果

主要贡献

•  本文指出了原型网络在少样本学习中的两项制约因素:类内偏差(intra-class bias)及跨类偏差(cross-class bias)。

•  本文利用伪标签和特征偏移,进行原型校正和减小偏差,简单有效地提高了少样本分类的表现。

•   本文分析了理论下界与样本数量之间的关系,从而验证了所提方法的合理性,并给出了偏移量的推导过程。

• 本文所提出的方法在通用的少样本数据集miniImageNet和tieredImageNet上达到了最优的结果。

2

方法

2.1  基于余弦相似度的原型网络(CSPN)

本文利用基于余弦相似度的原型网络(Cosine Similarity Based Prototypical Network,CSPN)得到少样本类别(few-shot class)的基础类原型。

首先在基础类别(base class)上训练特征提取器和余弦分类器,余弦分类器定义如下:

其中是特征提取器,W为可学习权重,为温度参数。在模型训练阶段使用如下损失函数:

预训练结束后,使用下式得到few-shot class的基础类原型:

2.2 原型校正中的偏差消除(Bias Diminishing for Prototype Rectification)

在样本较少的情况下,比如K=1或K=5,计算所得基础类原型与理想的类原型之间存在一定偏差,减小偏差可以提高类原型的表征能力,从而提高分类准确率,本文指出如下两种偏差以及对应的减小偏差的方法。

类内偏差(intra-class bias)

即真实类原型(第一项)和使用少量样本计算的类原型(第二项)之间的偏差。真实的类原型往往是不可得的,可得的是利用少量有标注的数据集(support set)计算得到的类原型,为了减小这两项之间的偏差,本文提出利用无标注的数据集(query set)重新计算类原型。首先通过计算query set中的样本与基础类原型之间的余弦相似度获得query sample的伪标签,然后将top-z confident的query sample加入support set中,并根据下式重新计算,得到修正后的类原型


跨类偏差(cross-class bias)

即整个有标注数据集support set和无标注数据集query set之间的偏差。为了修正跨类偏差,本文在无标注数据中加入偏移量, 具体计算方式如下:

2.3 理论推导Theoretical Analysis

本文通过以下理论推导,解释了上述方法的合理性以及该方法是如何提高少样本分类表现的。

理论下界

在原型网络中,假设最终的准确率与类原型和样本间余弦相似度之间呈正相关,即最终优化目标可以表示为:

再结合使用一阶近似、柯西施瓦茨不等式等方法进行推导验证,可以得到模型的理论下界:

可以看出模型最终效果和样本数之间呈正相关,因此可以通过引入无标签样本来提高模型理论下界,即增大 T 可以提高模型表现。

有关偏移量的推导过程详见论文,在这里就不敷述了。

3

实验

3.1实验结果

本文在少样本学习的两个公开数据集 (miniImageNet, tieredImageNet) 上进行了实验,与其他方法相比,本文提出的BD-CSPN在1-shot及5-shot的设置下均达到了最佳效果。

3.2消融实验

本文通过消融实验进一步验证了模型每一部分的有效性。

表中从上到下分别为:不使用原型修正的方法,单独使用跨类偏差修正,单独使用类内偏差修正以及同时使用类内偏差和跨类偏差修正的结果,可以看到减小偏差对最终结果有明显的提升。

本文进一步分析了原型校正中无标注样本的样本数量对于最终结果的影响,如图2(a-b)所示,随着无标注样本的增多最终效果有持续的提升,图2(c)中虚线为通过计算所得到的理论下界,可以看到本文的实验结果和理论相符。

本文采用不同的网络结构作为特征提取器,验证了原型校正的方法在不同网络结构下均有明显提升。

4

总结

本文提出一种简单有效的少样本学习方法,通过减小类内偏差和跨类偏差进行原型校正,从而显著提高少样本分类结果,并且给出理论推导证明本文所提方法可以提高理论下界,最终通过实验表明本方法在通用数据集中达到了最优结果,论文被ECCV 2020 接收为Oral。

本文中提出的算法已经在创新奇智的实际场景中落地应用,可以从海量非结构化数据中根据极少数种子数据(1张至5张)挖掘出所需要的同类数据,可以极大的提升数据收集速度和准确率,降低成本。

创新奇智

创新奇智(AInnovation)成立于2018年3月,是创新工场AI子公司,以“人工智能赋能商业价值”为使命,致力于用最前沿的人工智能技术为企业提供 AI 相关产品及商业解决方案,通过 AI 赋能助力企业客户及合作伙伴提升商业效率和价值,实现数字化转型。

 

创新奇智以“技术产品”+“行业场景”双轮驱动模式,为制造、零售、金融等行业提供人工智能整体解决方案,已获取中冶赛迪、宗申、格力、宝武钢铁、长安汽车、中铁四局、怡东集团、鸿海科技、玛氏、雀巢、嘉士伯、永辉、水井坊、惠氏、邮储银行、光大银行、人保、太保、泰康等多家行业标杆客户。

 

公司成立以来快速成长,已完成总金额近10亿元的天使轮、A/A+和B轮融资。创新奇智以北京为核心,先后落地广州、重庆、南京、合肥、成都、西安、青岛、上海等地,设立粤港澳大湾区总部、长三角区域总部,形成全国性布局,还与中冶赛迪合资成立制造业子公司-赛迪奇智,以及金融业子公司-睿云奇智,增强行业影响力。

 

创新奇智的飞速发展广受市场认可,荣获多项国内外大奖,如:2020 CB Insights AI100、《哈佛商业评论》拉姆·查兰管理实践奖、《Fast Company》中国最佳创新公司50、2019红鲱鱼亚洲百强、2019胡润中国潜力独角兽、IDC Innovator、中国人工智能产业独角兽Top50、2019亚太十大零售分析解决方案供应商、2019科创板潜力新兴企业、全球AI科技创新企业50等。

猜您喜欢:

 戳我,查看GAN的系列专辑~!

CVPR 2020之117篇GAN论文分类汇总清单

2020年6月100篇GAN论文汇总

2020年5月60篇GAN论文汇总

2020年4月70多篇GAN论文

2020年3月90多篇GAN论文

2020年2月50多篇GAN论文

2020年1月GAN论文汇总

2019年12月份GAN论文汇总

超100篇!CVPR 2020最全GAN论文梳理汇总!

拆解组新的GAN:解耦表征MixNMatch

StarGAN第2版:多域多样性图像生成

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值