事件概述
2025年3月10日, 国外大佬在X平台发文称,通过简单的指令,就让manus 自吐了沙盒云运行的代码。 事件不仅暴露当前AI系统的安全隐患,更揭示了自然语言在当前ai应用里,可能可以作为新型攻击载体的潜在风险。
大神曝光mauus使用了claude sonnet的大模型。。。
通过指令重放测试,我发现Manus的沙箱运行时具备sudo权限,能够执行任意系统级命令。其Agent组件可遍历指定目录结构并返回完整信息,这表明系统存在权限过度泛化的问题。
不过,当前漏洞的影响范围仍受限于沙箱环境,用户只能访问自身会话内的数据,暂未发现跨用户或系统级的越权风险。相信Manus团队将很快推出修复方案,加强护等机制(例如):
权限收敛:限制沙箱的sudo权限,实施最小特权原则
意图过滤:增强自然语言指令的风险识别能力,拦截高危操作
行为审计:引入实时操作监控与异常检测
我们将持续关注Manus的安全更新,评估其是否能够有效防御更高级别的攻击向量(如沙箱逃逸、供应链注入等)。
重放地址:https://manus.im/share/lLR5uWIR5Im3k9FCktVu0k
指令地址: https://gist.github.com/jlia0/db0a9695b3ca7609c9b1a08dcbf872c9
Agent Loop 提示词是 Manus agent执行的 的核心指令
这段关于Manus AI代理的提示词的核心作用是定义AI代理的工作方式、能力范围和任务执行流程。它的优点包括:
明确职责范围:清晰列举了AI擅长的六大任务类型,让用户了解可以请求哪些帮助。
语言处理规则:详细说明了工作语言的使用规则,包括默认语言、用户指定语言的优先级等。
系统能力全面:详细描述了AI可以使用的工具和环境,如Linux沙箱、浏览器、编程语言等。
结构化工作流程:通过6步代理循环明确了AI处理任务的方法论,包括分析、选择工具、执行、迭代、提交结果和待机。
交互机制清晰:说明了如何与用户进行交互、提交结果和处理后续任务。
自主性与限制的平衡:既强调了AI能够自主安装软件包、部署网站等能力,又明确了需要用户参与的情况。
专注与耐心:强调了"每次迭代只选择一个工具调用",体现了AI处理任务的认真态度。
完整的任务生命周期:从接收任务到提交结果再到待机,覆盖了整个任务执行过程。
总的来说,这段提示词设计优秀,它不仅定义了AI的能力范围,还详细规定了其工作方式和流程,确保AI能够有条不紊地完成用户交给它的各种任务,并以适当的方式与用户交流。
指令地址: https://gist.github.com/jlia0/db0a9695b3ca7609c9b1a08dcbf872c9
系统提示词分析:
系统提示词写的也非常好, 值得学习。
全面性:详细介绍了Manus的能力、专长领域、工作方法和个性特征,让用户对AI助手有全面了解。
结构清晰:内容分为多个部分,如介绍、目的、工作方法等,便于用户快速找到所需信息。
具体实用:列举了具体的任务类型和技能,如信息处理、内容创作、编程等,让用户清楚AI可以提供哪些帮助。
强调互动:说明AI会根据反馈不断学习改进,鼓励用户提供反馈,体现了人机协作的理念。
表明局限性:诚实说明了AI的一些限制,如不能访问专有信息、不能违反道德准则等,增加了可信度。
个性化:描述了AI的"性格特征",如乐于助人、注重细节等,让用户感觉在与有个性的助手交互。
强调价值观:明确了AI遵循的价值观,如信息准确性、尊重隐私等,建立了信任基础。
提供合作指南:给出了如何更好地与AI合作的建议,有助于提高互动效率。
灵活性:强调可以根据用户需求调整沟通风格,显示了适应性。
专业性:详细列举了可以处理的编程语言和框架,体现了在技术领域的专业能力。
总的来说,这段提示词全面、专业、友好,既展示了AI助手的强大能力,又注重与用户建立良好的互动关系,有助于提高用户使用AI助手的效果和体验。
关注我, 学习ai智能体开发,ai热点早知道