【论文泛读】2020A-Dual-stream Maximum Self-attention Multi-instance Learning

1.题目:

双流(Dual-stream)最大化自注意力多示例学习(Dual-stream Maximum Self-attention Multi-instance Learning)

2.摘要

多实例学习(MIL)是一种弱监督学习的形式,其中单个类标签被分配给实例包,而实例级标签不可用。在许多实际场景中,训练分类器以准确确定包标签和实例标签是一项具有挑战性但至关重要的任务。例如计算组织病理学。最近,由神经网络完全参数化(fully parameterized)的MIL模型因为其高度的灵活性和优越的性能而变得流行。这些模型中的大多数依赖于注意力机制,该机制在包中的实例嵌入中分配注意力分数(attention scores),并使用聚合算子(aggregation operator)生成包嵌入。
在本文中,我们提出了一种由神经网络参数化的双流最大自注意力 MIL 模型(DSMIL)。第一个流部署了一个简单的 MIL 最大池,而最激活的实例嵌入(top-activated instance embedding)被确定并用于获得第二个流中实例嵌入的自注意力分数。
与大多数先前的方法不同,所提出的模型基于相同的实例嵌入(instance embeddings)共同学习实例分类器和bag分类器。
实验结果表明,与最佳 MIL 方法相比,我们的方法实现了卓越的性能,并在基准 MIL 数据集上展示了最先进的性能。

3.Bib

@article{
   Li:2020:Dual,
  author	=	{
   Bin Li and Kevin W Eliceiri},
  title		=	{
   Dual-stream maximum self-attention multi-instance learning},
  journal	=	{
   arXiv preprint arXiv:2006.05538},
  year		=	{
   2020}
}

4.符号系统

符号 含义
B = { ( x 1 , y 1 ) , … , ( x n , y n ) } \boldsymbol {B}=\{(x_1,y_1),\dots,(x_n,y_n)\} B={ (x
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值