BERT在CNN上也能用?看看这篇ICLR Spotlight论文丨已开源

本文介绍了一种名为SparK的新方法,它使BERT能够在卷积神经网络(CNN)上运行。SparK采用稀疏且层次化的掩码建模,解决了CNN与BERT结合的两大挑战,适用于各种CNN模型,如ResNet和ConvNeXt,提升了图像分类、目标检测和实例分割任务的性能。
摘要由CSDN通过智能技术生成

如何在卷积神经网络上运行 BERT?

你可以直接用 SparK —— 字节跳动技术团队提出的提出的稀疏层次化掩码建模 ( Designing BERT for Convolutional Networks: Sparse and Hierarchical Masked Modeling ),近期已被人工智能顶会 ICLR 2023 收录为 Spotlight 焦点论文:

这也是 BERT 在卷积神经网络 (CNN) 上的首次成功,论文和开源代码地址请在文末自取。

先来感受一下 SparK 在预训练中的表现吧。

输入一张残缺不全的图片:

还原出一只小狗:

另一张残缺图片:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值