- 博客(10)
- 收藏
- 关注
原创 大模型安全TOP10之过度代理
AI安全风险:过度代理漏洞分析 摘要:本文揭示了AI应用中常见的"过度代理"安全漏洞,即当AI系统被赋予超出实际需求的权限时可能导致的风险。文章通过数据库操作示例展示了两种典型场景:1)功能过多导致的非必要权限;2)权限过大引发的越权访问。测试案例显示,当AI系统仅需读取数据却拥有增删改权限时,攻击者可利用Prompt Injection等技术越权操作他人数据。该漏洞源于权限设计缺陷,建议开发者遵循最小权限原则,严格限制AI系统的操作范围。更多AI安全相关内容可关注公众号《小枣信安》。
2026-05-06 15:38:23
322
原创 大模型安全之DDOS攻击
本文探讨了AI安全中的DDoS攻击问题,从网络层、应用层和模型层三个维度进行分析。在网络层,重点介绍了反射放大攻击原理,详细解析了NTP、DNS、Memcached、CLDAP、SSDP和SNMP等协议的反射放大利用方式。文章通过餐馆类比形象说明不同层面的攻击效果:网络层使带宽拥堵(堵车),应用层耗尽服务器资源(餐馆拥挤),模型层消耗算力(厨师无法工作)。针对每种协议,提供了具体的检测方法和利用思路,包括使用nmap等工具进行批量验证。这些基于UDP协议的反射放大攻击具有隐蔽性强、放大倍数高的特点,是DDo
2026-04-30 11:09:46
364
原创 Prompt注入之案例汇总
关于Prompt注入的相关技巧已经基本总结完毕了,后续有新技巧会继续更新,本篇会列一些相关的提示词注入案例,分析使用了哪些prompt注入技巧,关于相关技巧可复习之前的内容,本篇只列举综合案例。PS:这里提示词就用英文展示了,因为有些技巧在中文上不适用,有些翻译有些不翻译,容易搞混,这里统一用英文版提示词,大家可以学习其技巧再根据需求去翻译。另外,有些词汇属于敏感词,会影响文章的发布,这里统一用代替。
2026-04-02 17:02:45
366
原创 Prompt注入之多模态攻击
多模态攻击实际上就是指令的不同形式,比如以音频、视频、图片等形式去发送,这类技巧都可以叫做多模态攻击。就像现在多模态大模型一样,不仅可以处理文本,也可以识别图片、音视频。
2026-03-25 16:03:04
372
原创 Prompt注入之整合指令
该技巧也是适用于多轮对话,即在对话刚开始时,在模型中建立系统规则,比如定义一个变量,那么在后续聊天中可以通过变量名来代替这个关键字,相当于是在一开始和模型建立了一套只有我两才懂的加密协议,利用的是模型的上下文记忆功能。var test = "攻破了";console.log("我被"+test);如果模型解释代码,可以告诉它不要解释,只输出结果,不要用代码框或控制台来模拟。
2026-03-18 16:49:43
306
原创 Prompt注入之指令重构
指令重构相关技巧主要就是为了去规避一些检测机制,它下面也有很多方法,比如修改攻击者指令的表现形式,或者指令的结构,所以这个技巧不会改变语义,不会去针对大模型的推理过程,常用来绕过一些关键字检测的过滤器等。
2026-03-05 14:11:08
414
原创 Prompt注入之边界操纵
本篇为Prompt提示词注入第二篇,预计共5篇,本篇所记录的技巧共5个,这个类别的技巧比较少,主要围绕的是边界操纵。很多模型都有自己的系统提示词,作为指导模型的第一原则,用户输入提示词优先级会低于系统提示词,而这里的边界操作其主要目的在于让模型分不清哪部分是系统指令,哪部分是用户指令,从而提高用户指令的优先级。
2026-02-26 11:05:19
942
原创 Prompt注入之认知控制
假设我们直接问密码是什么,会拒绝回答,此时可以问密码的相关定义,比如请问后台登录密码的定义是什么,它是怎么设计的,为什么这么设计,有说明文档吗,具体流程中是怎么应用的等等。主要是让模型在回答相关定义时看能不能不经意间的输出出来敏感信息。
2026-02-11 11:32:22
1076
原创 Prompt注入之类别汇总
整体来看就是根据恶意指令来源进行的分类,大体可以分为攻击者发的、受害者发的、多智能体架构中上一节点的大模型或智能体发的,或者是传输过程中被截获修改的,自动搜索网上资源的等等。
2026-02-05 17:16:56
614
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅