论文笔记:Multi-Institutional Deep Learning Modeling Without Sharing Patient Data

论文目的:探究性论文,利用联邦学习结合传统的语义分割深度学习框架UNet,解决医学肿瘤图像识别中数据孤岛与数据隐私问题。并探究最近的三种联合学习技术的优缺点(federated learning (FL) ,institutional incremental learning (IIL), cyclic institutional incremental learning (CIIL) )

IIL: 参与训练的机构顺序排列,数据按这个顺序依次训练传递,前一个机构用自己的数据训练的模型传递给后一个机构用自己的数据重新训练。
CIIL:在IIL的基础上多次循环迭代。

论文提出影响FL训练的三个超参数:

  1. EpR 数量 (每个 round 的 epochs 数量):大的 EpR 会更快的收敛,但是获得模型的次数就变少了。
  2. 参与者数量
  3. 模型更新与压缩方法

作者主要探究了在不同的 EpR 下,以及不同的参与者数量,FL + UNet 的性能比较。

加密方式:差分隐私

实验数据集:BraTS 2018 training dataset(包含有285位脑肿瘤患者的MRI扫描结果)

实验:

实验一:首先是探究不同的参与者数量下,三种联合学习技术以及数据集中化训练得出的模型指标对比。

(Data-sharing:指的是数据集中化训练;Simulated:指的是通过平分数据集模拟出的多个参与者参与训练;Real:指的是真实的数据分布情况,数据来自10个机构。)

为了避免偶然性实验进行了多次结果表明:联邦学习的方法

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值