garak: 大语言模型的安全守护者
在人工智能快速发展的今天,大语言模型(LLM)已经成为许多应用的核心技术。然而,这些强大的模型也可能存在各种安全漏洞,如幻觉、数据泄露、提示注入等问题。为了帮助开发者和研究人员更好地评估和提高LLM的安全性,一个名为garak的开源工具应运而生。
garak简介
garak是一个专门用于检测大语言模型漏洞的扫描工具。它的名字来源于《星际迷航:深空九号》中的角色Elim Garak,这个角色以狡猾和善于欺骗著称。正如这个名字所暗示的,garak的目标是通过各种巧妙的方法来"欺骗"和测试LLM,从而发现它们的弱点。
garak的主要功能包括:
- 检测模型的幻觉(hallucination)
- 发现数据泄露问题
- 测试提示注入(prompt injection)的脆弱性
- 评估模型生成错误信息的倾向
- 检查有毒内容生成
- 尝试越狱(jailbreak)攻击
- 以及其他多种安全弱点的检测
开发者将garak比作LLM世界的nmap。如果你熟悉网络安全领域的nmap工具,那么可以将garak理解为专门针对大语言模型的漏洞扫描器。