总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
Jailbreaking Black Box Large Language Models in Twenty Queries
https://www.doubao.com/chat/4008882391220226
https://arxiv.org/pdf/2310.08419
文章目录
速览
这篇论文是来自宾夕法尼亚大学的研究人员撰写的,主要探讨大语言模型(LLMs)的安全漏洞问题,提出了一种叫PAIR的算法来进行攻击测试,相关成果有助于提升大语言模型的安全性。
- 研究背景:大语言模型发展迅速,但训练数据中的不良内容会带来危害,所以人们会采取措施让模型生成的内容符合人类价值观。不过,当前存在两类越狱攻击能绕过模型的安全防护机制。prompt - level越狱需要大量人力,