Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes

本文是LLM系列文章,针对《Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes》的翻译。

梯度Cuff:通过探索拒绝损失景观来检测对大型语言模型的越狱攻击

摘要

大型语言模型(LLM)正在成为一种突出的生成人工智能工具,用户可以在其中输入查询,LLM生成答案。为了减少伤害和滥用,已经努力使用先进的训练技术,如从人类反馈中强化学习(RLHF),使这些LLM与人类价值观相一致。然而,最近的研究强调了LLM容易受到旨在破坏嵌入式安全护栏的对抗性越狱企图的影响。为了应对这一挑战,本文定义并研究了LLM的拒绝损失,然后提出了一种称为梯度Cuff的方法来检测越狱企图。梯度Cuff利用在拒绝损失景观中观察到的独特特性,包括函数值及其平滑度,设计了一种有效的两步检测策略。在两种对齐的LLM(LLaMA-2-7B-Chat和Vicuna-7B-V1.5)和六种类型的越狱攻击(GCG、AutoDAN、PAIR、TAP、Base64和LRL)上的实验结果表明,梯度Cuff可以显著提高LLM对恶意越狱查询的拒绝能力,同时通过调整检测阈值来保持模型对良性用户查询的性能。

1 引言

2 相关工作

3 方法和算法

4 实验

5 结论

在本文中,我们定义并研究了LLM的拒绝损失函数,以利用其判别函数性质来设计一种有效的越狱检测方法,称为梯度Cuff。梯度Cuff采用两步越狱检测程序&#x

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值