stochastic masks——随机掩码

阅读不能停,保持日常输入大于输出

【通过学习随机掩码来解释生物序列的神经网络】


切入正题之前,去了解了一下“掩码”的概念。

参考:浅析深度学习中的mask操作_guofei_fly的博客-CSDN博客_深度学习mask

参考:图像中的掩膜(Mask)是什么_bitcarmanlee的博客-CSDN博客_掩膜

mask(掩码、掩膜)是深度学习中的常见操作。简单而言,其相当于在原始张量上盖上一层掩膜,从而屏蔽或选择一些特定元素,因此常用于构建张量的过滤器。

按照上述定义,非线性激活函数Relu(根据输出的正负区间进行简单粗暴的二分)、dropout机制(根据概率进行二分)都可以理解为泛化的mask操作。

从任务适应性上,mask在图像和自然语言处理中都广为应用,其应用包括但不局限于:图像兴趣区提取、图像屏蔽、图像结构特征提取、语句padding对齐的mask、语言模型中sequence mask等。

从使用Mask的具体流程上,其可以作用于数据的预处理(如原始数据的过滤)、模型中间层(如ReLU、Dropout等)和模型损失计算上(如padding序列的损失忽略)。

尽管上述操作均可统称为mask,但其具体的算法实现细节需要根据实际需求进行设计


图像处理中的掩码是指通过对图片中的patch进行随机掩码,然后通过未被掩码的区域预测被掩码掉的区域,进而使得模型学习图像的语义特征,这也是Masked AutoEncoder(MAE)的核心思想。

PyTorch提供了很好用的掩码(masked)操作API,如使用tensor.masked_fill(mask, value)将张量中的一些值掩盖掉。在Transformer中与BERT中都有用到。torch.masked_select(input, mask, out=None)根据掩码张量mask中的二元值,取输入张量中的指定项( mask为一个 ByteTensor),将取值返回到一个新的1D张量,张量 mask须跟input张量有相同数量的元素数目,但形状或维度不需要相同。

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值