MAE

论文链接:https://arxiv.org/pdf/2111.06377.pdf

视频链接:MAE 论文逐段精读【论文精读】_哔哩哔哩_bilibili 

Masked Autoencoders Are Scalable Vision Learners 

 

 Autoencoder :训练中的y,x都来自于一个数据

网络框架:

采用一个不对称的编码器-解码器框架。将一张图片分成不同的patch,并对patch进行随机的遮掩(实验数据表明当遮掩度为75%的时候效果较好),对于encoder 我们只对那些没有被遮掩住的patch进行训练,形成潜在表示,解码器是一个轻量级解码器,他从潜在表示和被遮住的token中还原原始图像。且解码器只有在预训练任务中采用来重构图片信息。

语言和视觉不同的原因:

  1. 模型不同:在上世纪,一直是卷积神经网络占有主导地位,直到最近的VIT模型成功跨界。
  2. 语言和视觉的信息密度不同:语言具有高度的场景和信息密度,图像具有严重的空间冗余性。
  3. 解码器在将潜在变量转为输入时扮演着不同的角色:在视觉领域中,解码器重建像素界别的信息,因此它的输出比普通的识别任务具有更低层次的语义信息,在语言任务中解码器富有语言信息。解码器在决定将潜在变量输出为何种层次的信息中扮演者重要的角色。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值