【主动学习 07】Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis...(CVPR 2017 oral)

Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally CVPR’2017

上篇ADMA中实验对比的二分类Baseline AIFT(Active incremental fine-tuning method)就来自这篇,这里的AIFT算法并不是着重于主动学习查询策略,而是在“预训练模型上持续的主动学习fine-tuning”这个概念,并且是零样本启动。这篇工作里的主动学习算法也是结合Uncertainty和多样性,这里的多样性是根据一个样本做图像变换后模型预测一致性得到的。

这篇文章的further work就是如何确定Uncertainty和Diversity的权重比例,ADMA就用一个dynamic trade-off来解决了,但还是那个问题,ADMA没有实验,只存在于讲故事阶段。这篇实验就非常多。

Data argumentation

医学图像标注一张X光30RMB,一张CT70RMB,所以要做data argumentation。文章中的医学图像有些令人不适,换一张可爱点的图片说明。

图片做变换后标签应该是不变的,如果标签不一致,说明这个图片是“hard example”,有利于提升CNN的性能,作者基于此提出了Diversity的指标。

但是也有可能是产生了噪声样本,如上图第一排所示,变换后的图片看起来也很像松鼠。作者又提出majority selection来解决噪声样本。

AIFT

对于一个candidate样本,经过数据增强之后会得到一组patches,这些patches继承了原样本的标签。公式化描述就是给定一组candidate: U = { C 1 , C 2 , … , C n } \mathcal{U}=\left\{\mathcal{C}_{1}, \mathcal{C}_{2}, \ldots, \mathcal{C}_{n}\right\} U={ C1,C2,,Cn} ,其中 n n n表示样本的个数,每个candidate由 m m m个patches组成: C i = { x i 1 , x i 2 , … , x i m } \mathcal{C}_{i}=\left\{x_{i}^{1}, x_{i}^{2}, \ldots, x_{i}^{m}\right\} Ci={ xi1,xi2,,xim}。那么AIFT算法:

这个算法着重强调了Continuous fine-tuning,因为这篇文章比较早的提出了这个概念,我们现在看觉得没什么。我们主要关注主动学习策略。

Active candidate selection

一个样本是否也能够该被查询的得分由它的patches计算得来,评估这些patches又依赖两个指标:Entropy和Diversity。

假设patch x i j x_{i}^{j} xij x i l x_{i}^{l} xil来自同一个candidate C i C_{i} Ci x i j x_{i}^{j} xij经过当前CNN的预测结果为 p i j p_{i}^{j} pij,此时patch x i j x_{i}^{j} xij的Entropy定义如下:
e i j = − ∑ k =

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值