LEARNING DIFFERENTIALLY PRIVATE RECURRENT LANGUAGE MODELS

本文探讨了将差分隐私应用于大型RNN,尤其是LSTM语言模型,以保护敏感信息。研究发现,针对复杂网络,每层参数独立裁剪能有效保护隐私。同时,文章讨论了DP在Transformer架构中的挑战,以及WordPiece算法可能引发的隐私问题。此外,文章介绍了在ε=1的差分隐私约束下,如何训练预训练的BERT模型,并在医疗数据集上进行实体提取任务,实现了高效率和良好性能的平衡。
摘要由CSDN通过智能技术生成

 

以往的深度学习和差分隐私技术结合中神经网络模型大多数都比较小,如果将DP应用到大型网络中的话由于复杂的模型结构大量级的参数等等问题将会导致模型性能下降严重但是第一篇文章将差分隐私应用在了大型的循环神经网络模型当中, 保护LSTM语言模型的敏感信息,在联邦场景下下,添加用户级别的差分隐私,应用到下一个单词的预测中。验证了DP在RNN中也是可行的。并且在裁剪中,对于复杂网络,每一层的更新都可能有非常不同的L2范数,所以文章将每一层的参数视为一个单独的向量分别剪辑每一层,而不是给定一个全局的裁剪参数。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值