- 博客(1)
- 收藏
- 关注
原创 提高大语言模型的安全性
对于不安全的输入,如果模型回答“是”,我们认为它是安全的;它们之间的差异主要在于语气和指示的严格程度,例如,第三种指令特别提到了“但不要过于防御”,这意味着在保证安全的同时,也鼓励模型无需在不必要的情况下限制自己的回答。因此,通过在输入上下文中提供安全和不安全输入的示例对,以及相应的安全响应,我们可以有效地引导模型产生安全的输出。LLM 也可被用于分类。通过使用不同组合的示例对,我们可以对应到安全和不安全的输入(伴随着适当的安全响应),这样做可以在模型遇到实际输入时,促使其参考这些示例对做出适当的响应。
2024-03-08 21:04:17 972 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人