本文是LLM系列文章,针对《Hidden You Malicious Goal Into Benign Narratives: Jailbreak Large Language Models through Logic Chain Injection》的翻译。
将你的恶意目标隐藏在良性叙事中:通过逻辑链注入的越狱大型语言模型
摘要
对语言模型模型(LLM)的越狱攻击需要精心制作提示,旨在利用模型生成恶意内容。现有的越狱攻击可以成功欺骗LLM,但它们不能欺骗人类。本文提出了一种新型的越狱攻击,可以欺骗LLM和人类(即安全分析师)。我们的观点的关键见解是借鉴了社会心理学——如果谎言隐藏在真相中,人类很容易被欺骗。基于这一认识,我们提出了逻辑链注入攻击,将恶意注入良性真相。逻辑链注入攻击首先将其恶意目标伪装成一系列良性叙述,然后将叙述分发到相关的良性文章中,其中包含无可置疑的事实。这样,新生成的提示不仅可以欺骗LLM,还可以欺骗人类。