稀疏自编码器_解读-Stacked Capsule AutoEncoder-堆叠的胶囊自编码器

1. 引言


《stacked capsule autoencoders》使用无监督的方式达到了98.5%的MNIST分类准确率。
Stacked Capsule Autoencoders 发表在 NeurIPS-2019,作者团队阵容豪华。可以说是官方capsule的第3个版本。前两个版本的是:

  • Dynamic Routing Between Capsules
  • Matrix capsule with EM routing


当然还有最早的Transforming Auto-encoders ,发表在2011年ICANN,论文第一次引入“capsule”的概念。值得一提的是,这篇论文的作者是Hinton、Alex Krizhevsky等人,对,是AlexNet的Alex。原来Alex本人在2012年发表AlexNet之前在研究这种“奇怪”的东西。2011年的他可能没想到,第二年的他们,为了参与ImageNet大规模数据集图像识别挑战赛而设计的一款基于的传统CNN的AlexNet,引爆了接下来已经持续7年之久的“Deep Learning”潮流,现如今CVPR 2020投稿量都过10000了,是谁惹得“祸“的还不清楚吗?

2. 概念


从2017年开始, Hinton等人研究的Capsule Network得到了深度学习社区的大量关注。可以说Capsule Network在反思CNN的一些固有偏见,比如CNN的学习过分强调不变性(invariant )特征的学习,数据增强也服务于这一目的。而这样做,实际上,忽略了一个真实世界中的事实:


1)物体-部件 关系(Object-Part-relationship )是视角不变的(viewpoint invariant),
2)物体-观察者(Object-Viewer-relationship) 是视角同变性(viewpoint equivariant)的。

  • equivariant:
  • invariant:
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值