【多实例学习】

大道至简----多示例学习与注意力机制的巧妙结合
【池化方法】多示例学习池化(MIL pooling)公式与代码

1、定义

多示例学习中的关键是找到示例与包之间的逻辑关系。
常见方法:
在这里插入图片描述
常见的有三种

  • 【1】实例平均池化
  • 【2】最大池化
  • 【3】基于注意力机制的方法
    注意力机制(Attention Mechanism)是解决信息超载问题的主要手段的一种资源分配方案,将计算资源分配给更重要的任务。通俗且不是很严谨的说,就是一种被赋予了直观意义的权重,它决定着哪一部分信息更加重要。
    与上文结合来说,(1)和(2)可以认为是多示例问题中的一种硬性注意力。
    (1)中每个示例的注意力权重可以认为是1/n。(2)中Key Instance权重为1.0,而其余示例的注意力权重均为0。

2、实例注意力

经典的多示例网络如下
MI-NET 框架
他与我们所熟悉的全连接网络区别在于,网络末端增加了符合多示例假设的模块:Instance Score Layer和MIL Pooling Layer。上述经典的网络结构中所使用的Pooling方法正是上文提到的最大池化。

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值