CV-掩码学习-模型-2021:MAE【在NLP和CV两大领域之间架起了一座更简便的桥梁】

此文最大的贡献,可能是在NLP和CV两大领域之间架起了一座更简便的桥梁。

此前,大名鼎鼎的GPT和BERT已经将大型自然语言处理(NLP)模型的性能提升到了一个新的高度。

直观点讲,就是事先遮住一些文本片段,让AI模型通过自监督学习,通过海量语料库的预训练,逐步掌握上下文语境,把这些被遮住的片段,用尽可能合乎逻辑的方式填回去。

这和我们做「完形填空」的方式有些类似。经过海量数据的学习和训练,AI模型慢慢学会了自己生成自然文本。目前,随着GPT及其后续改进模型的不断进步,生成的自然文本几乎可以乱真。

现在,何恺明的这篇文章把NLP领域已被证明极其有效的方式,用在了计算机视觉(CV)领域,而且模型更简单。

我们注意到,图像和语言是不同性质的信号,必须认真处理这种差异。图像仅仅是记录下来的光,没有语义分解成视觉上类似的单词。我们没有尝试删除对象,而是删除了最有可能不会形成语义段的随机patches。同样,我们的MAE重建的像素不是语义实体。然而,我们观察到(如图4),我们的MAE推断出复杂的整体重建,表明它已经学习了许多视觉概念,即语义。我们假设这种行为是通过MAE内部丰富的隐藏表征产生的。我们希望这一观点将激励今后的工作。

MAE:掩码自编码模型--CV无监督学习 - 巴蜀秀才 - 博客园

CV大神何恺明最新一作:视觉预训练新范式MAE!下个CV大模型要来

凯明大神新作MAE,又一次刷新我的认知了 

[CVPR2022]MAE模型代码分析_清欢年岁~的博客-CSDN博客_mae模型 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值