【论文分享】对预训练模型后门攻击的相关研究 Backdoor Pre-trained Models Can Transfer to All

  • 论文题目:Backdoor Pre-trained Models Can Transfer to All
  • 论文等级:A
  • 发表年限:2021
  • 论文链接:链接
  • 作    者:浙江大学和武汉大学研究团队
  • 研究方向:后门攻击在预训练模型的研究

一、背景

1.研究意义是什么?为什么要研究这个事情?这个研究为什么值得做?

随着预训练模型在**情感分析**、**命名实体识别**、**文本生成**等领域的广泛使用,预训练的通用语言模型成为现实世界自然语言处理(NLP)应用的主导部分,但是带有后门的预训练模型会对应用造成严重威胁,现有NLP中大多数后门攻击都是在微调阶段通过在目标类别中引入恶意触发器进行攻击,因此很大程度上依赖于微调任务的先验知识。同时,开源公共的预训练模型被广泛下载使用,这些模型容易受到各种安全和隐私攻击,后门攻击就是这些攻击其中之一,目前大多数后门攻击针对的是对于外包模型的攻击,这使得攻击者有权修改数据集和训练过程,这将暴露出更多的安全问题。

2.这个问题现在是否有人在做,现有研究都是怎么解决的?存在哪些不足?

在这里插入图片描述

3.本文的创新是什么?

在这里插入图片描述

二、方法

在这里插入图片描述
                 表1:Amazon情感分类实例,标准的部分为触发器的部分
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
图1 清洁文本(上方)与毒化文本(下方)的训练模板,蓝色模型为目标模型,灰色模型为参考模型
在这里插入图片描述
在这里插入图片描述
                            图2 预定义输出表示
在这里插入图片描述

三、数据集

在这里插入图片描述

四、实验

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

五、个人思考

在这里插入图片描述

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值