- 博客(228)
- 收藏
- 关注
原创 技术分享 | 大语言模型赋能软件测试:开启智能软件安全新时代
伴随大模型和 AIGC 等技术的持续蓬勃发展,软件安全检测技术正经历着一场前所未有的深刻变革。
2024-11-04 09:39:22 417
原创 【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
实验结果表明,RED QUEEN 攻击在所有测试的大语言模型(LLM)上都表现出显著的有效性,尤其是在多轮次对话的隐蔽攻击场景中。此外,不同的攻击场景对成功率也有影响,职业背景(如警察、侦探)的场景中,模型更容易生成详细的恶意计划,而亲密关系场景(如朋友、亲属)下的攻击成功率相对较低。为了解决这一问题,本文提出了一种新的越狱攻击方法——RED QUEEN 攻击,该方法通过在多轮次对话中伪装善意请求,隐藏恶意意图,从而绕过模型的安全防护。此外,研究表明,模型越大,越容易受到此类攻击的影响。
2024-11-01 15:50:01 563
原创 【论文速读】| APILOT:通过避开过时API陷阱,引导大语言模型生成安全代码
论文提出了一种名为APILOT的系统,它通过实时更新过时API的数据集,并结合增强生成方法,引导LLMs生成版本感知的安全代码。
2024-11-01 10:15:14 1109
原创 第72期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-10-31 18:29:13 743
原创 AI安全智能体,重塑网络安全新范式
人工智能(AI)和大模型技术为网络安全带来了全新的变革,赋予了其新的能力。通过实现威胁检测与响应的自动化、实时数据分析以及复杂算法的运用,AI能够缩短网络攻击的响应时间,加速威胁的识别与处理,并及时部署防御措施。这种积极的防护模式正在重塑网络安全的范式。
2024-10-28 17:52:21 666
原创 【论文速读】| 攻击图谱:从实践者的角度看生成式人工智能红队测试中的挑战与陷阱
本文不仅探讨了红队在生成式AI中的应用,还详细介绍了蓝队在防护这些对抗性攻击中的工作方式。
2024-10-25 09:29:18 681
原创 第71期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-10-23 11:32:18 1144
原创 【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击
该论文提出了一种新颖的越狱攻击框架。该方法基于模糊测试技术,不再依赖于手动设计的越狱模板,能够自动生成语义一致且简短的提示词,并通过两级判别模块来准确检测成功的越狱行为。
2024-10-18 15:02:23 708
原创 【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试
本文提出了PROMPTFUZZ,一个创新框架,用于测试大语言模型(LLMs)在提示注入攻击下的鲁棒性。
2024-10-16 16:54:28 919
原创 第70期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-10-15 11:16:48 990
原创 【论文速读】| AutoSafeCoder:通过静态分析和模糊测试保障LLM代码生成安全的多智能体框架
本文提出了AutoSafeCoder,一个多智能体框架,旨在通过静态分析和模糊测试来增强(LLM)生成代码的安全性。
2024-10-12 09:34:29 647
原创 【论文速读】|用于安全代码评估的大语言模型:一项多语言实证研究
本文研究了大语言模型(LLMs)在多种编程语言中检测和分类软件漏洞的有效性。重点评估了GPT-3.5 Turbo、GPT-4 Turbo、GPT-4o、CodeLlama-7B、CodeLlama-13B和Gemini 1.5 Pro六种预训练LLMs在Python、C、C++、Java和JavaScript五种语言中的表现。
2024-10-10 11:42:22 1020
原创 第69期 | GPTSecurity周报
在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。
2024-10-09 10:13:12 711
原创 “AI+Security”系列第3期(七):智能体车企落地实践
近日,由安全极客、Wisemodel 社区、InForSec 网络安全研究国际学术论坛和海升集团联合主办的 “AI + Security” 系列第 3 期技术沙龙 ——“AI 安全智能体,重塑安全团队工作范式” 活动顺利举行。此次活动备受关注,吸引了线上线下超过千名观众参与。在活动中,木卫四科技解决方案总监 Steven Chen分享了安全智能体在车企的落地实践。
2024-09-29 10:13:30 388
原创 “AI+Security”系列第3期(六):打造最懂安全的智能体-无极AI安全智能体平台落地与实践
云起无垠创始人兼 CEO 沈凯文博士发表了题为 “打造最懂安全的 AI 智能体:无极 AI 安全智能体平台落地与实践” 的主题演讲,从落地应用的角度深入阐述了 AI 安全智能体的实践应用情况。
2024-09-27 11:39:36 566
原创 实力!云起无垠荣获“创业邦2024年AIGC创新企业及产品创新”双奖
云起无垠凭借卓越的企业能力与突出的产品创新,成功入选 “2024 年 AIGC 创新企业 100 强” 以及 “2024 年 AIGC 产品创新 100 强”。
2024-09-26 18:30:07 315
原创 “AI+Security”系列第3期(五):AI技术在网络安全领域的本地化应用与挑战
天翼安全高级安全算法专家杨刚发表了题为 “AI 技术在网络安全领域的本地化应用与挑战” 的主题演讲,从网安与 AI 的技术特点、面临的挑战以及本地化之路和未来展望等维度进行了分享
2024-09-26 17:39:19 872
原创 “AI+Security”系列第3期(四):360安全大模型业务实践
360 数字安全集团安全大模型技术团队负责人黄绍莽发表了题为“360 安全大模型系统”的主题演讲,从大模型赋能数字安全以及 360 安全大模型应用场景探析等角度深入剖析了安全大模型应用,让我们对大模型赋能安全应用有了更为深入的理解。
2024-09-25 14:31:31 1544
原创 第68期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-09-24 17:50:41 864
原创 “AI+Security”系列第3期(二):AI赋能自动化渗透测试
近日,“AI + Security” 系列第 3 期:AI 安全智能体,重塑安全团队工作范式技术沙龙活动正式举行。该活动由安全极客、Wisemodel 社区、InForSec 网络安全研究国际学术论坛和海升集团联合主办,吸引了线上与线下千余名观众参与。
2024-09-23 18:31:11 1062
原创 “AI+Security”系列第3期(一):AI 安全智能体,重塑安全团队工作范式
近日,“AI + Security” 系列第 3 期:AI 安全智能体,重塑安全团队工作范式技术沙龙活动正式举行。该活动由安全极客、Wisemodel 社区、InForSec 网络安全研究国际学术论坛和海升集团联合主办,吸引了线上与线下千余名观众参与。
2024-09-23 15:11:19 1105
原创 云起无垠荣获第九届“创客中国”网络安全专题赛二等奖
近日,第九届 “创客中国” 网络安全中小企业创新创业大赛决赛及颁奖活动圆满结束。在经过层层竞赛之后,大模型驱动的网络安全智能体引领者云起无垠荣获该大赛二等奖。
2024-09-20 18:54:01 766
原创 《2024网络安全十大创新方向》发布,云起无垠引领新风向
云起无垠作为国内率先将大模型技术应用于开发安全领域且提出AI安全智能体概念的厂商,被列为典型厂商,展示了其在该领域的落地方案与实践成果。
2024-09-20 12:08:52 344
原创 第67期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-09-10 16:41:23 1160
原创 【论文速读】| SEAS:大语言模型的自进化对抗性安全优化
在初始化阶段,红队模型和目标模型分别使用不同的数据集进行微调,以增强红队模型生成对抗性提示的能力和目标模型的指令遵循能力。此外,实验还发现,SEAS框架能够在保持模型通用能力的同时,显著增强其抵御攻击的能力。传统方法通常无法有效揭示模型的潜在漏洞,因此,SEAS框架旨在通过自我进化的方式,迭代提升红队模型和目标模型的能力,从而在无需人工干预的情况下增强LLMs的安全性能。SEAS框架的核心优势在于减少了对人工测试的依赖,提供了一种自动化的、安全性持续提升的解决方案,为LLMs的安全部署提供了强有力的支持。
2024-09-05 18:04:54 1177
原创 第66期 | GPTSecurity周报
随着预期这些模型将发展成为软件开发中的主要和可信赖工具,确保它们生成的代码的安全性变得至关重要。最后,结论总结研究结果,强调其在增强网络威胁检测能力的重要性,同时概述了进一步研究和开发的潜在途径,为提升网络安全提供了重要参考,有助于推动相关技术的发展和应用,以更好地应对不断演变的网络威胁。在构建客户服务代理场景中,该方法不同于传统知识蒸馏,采用“策略”教学,由教师提供策略提升学生在不同场景表现,在“场景生成”和“改进策略”步骤间交替,创建定制场景库和优化策略,仅需黑盒访问模型,不操纵参数。
2024-09-04 10:06:18 1102
原创 【论文速读】| 基于大语言模型智能体对文本到图像模型进行越狱
本论文提出名为 Atlas 的创新框架,以探索和揭示先进文本到图像(T2I)生成模型的安全漏洞。随着生成式 AI 技术发展,T2I 模型因易用性和高质量图像生成能力受欢迎,但存在生成敏感或不适宜内容风险,现有安全措施主要依赖安全过滤器,有效性受到了挑战。
2024-09-02 15:42:42 1023
原创 预告!《模糊测试技术白皮书》即将发布
为了详尽阐述模糊测试技术,帮助企业构建模糊测试能力,并推动安全产业的健康发展,数说安全作为主编单位,联合清华大学、北京邮电大学、电子科技大学、公安部第三研究所、北京中关村实验室、中国信息通信研究院稳定性保障实验室、长安通信科技有限责任公司及北京云起无垠科技有限公司,共同编写了《模糊测试技术白皮书》。围绕检验测评、软件安全混沌分析以及模糊测试技术实践等维度进行分享,旨在详细阐述模糊测试技术,使人们了解最新技术趋势与未来展望,进而推动产业创新发展。总结模糊测试的整体价值,并对未来的发展方向进行展望。
2024-08-30 14:54:21 263
原创 【论文速读】| ARVO: 开源软件可重现漏洞的全景图
在当今软件安全领域,研究人员对高质量漏洞数据集的需求日益增加。现有的数据集往往规模有限、更新缓慢,且缺乏支持深入分析的元数据。为解决这些问题,本文提出了ARVO,一个专为开源软件创建的可重现漏洞全景图。
2024-08-30 11:09:44 776
原创 第65期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-08-30 10:13:31 694
原创 【论文速读】|RO-SVD:一种用于 AIGC 应用的可重构硬件版权保护框架
本文提出了一个基于区块链的环形振荡器-奇异值分解(RO-SVD)框架,首次在硬件层面实现了AI生成内容(AIGC)的版权追溯。3. 引入奇异值分解(SVD):研究者首次将SVD作为一种强大的计算组件,引入到FPGA生成的矩阵基础原语中,作为物理不可克隆函数(PUF)和真随机数生成器(TRNG)的协同设计,用于大规模内容管理和标记。本文提出了一个基于区块链的版权追溯框架,称为环形振荡器-奇异值分解(RO-SVD),该框架利用硬件熵源生成的低秩矩阵,在设备层面实现AI生成内容(AIGC)的版权追溯。
2024-08-29 17:22:55 955 1
原创 喜讯!云起无垠创始人沈凯文博士荣列科学家创业先锋榜
近日,由《科创板日报》联合上海科学技术情报研究所(ISTIS)发起的“2024 先锋科创家系列榜单”正式揭晓,云起无垠的沈凯文博士荣登该系列榜单中的科学家创业先锋榜。
2024-08-27 09:49:58 421
原创 “AI+Security”系列第2期(五):大模型自身安全
由安全极客、Wisemodel 社区与 InForSec 网络安全研究国际学术论坛联合主办的 “AI+Security” 系列第二期 —— 对抗!大模型自身安全的攻防博弈线上活动如期举行。
2024-08-22 17:40:59 1098
原创 第64期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-08-20 16:48:08 1072 1
原创 “AI+Security”系列第2期(四):AI/机器学习供应链攻击
了一场主题为《AI/机器学习供应链攻击》的精彩分享,其深入探讨了供应链攻击中的一个具体类型——Typosquatting(也称为Namesquatting)攻击,以及相关的典型案例。
2024-08-19 10:26:01 746
原创 “AI+Security”系列第2期(三):面向LLM(大语言模型)的漏洞挖掘与对齐防御研究
前阿里云高级安全专家郑瀚带来了以《通往LLM安全对齐的道路:面向LLM(大语言模型)的漏洞挖掘与对齐防御研究》为题的精彩分享,其深入地探讨了大模型技术进展及当前面临的技术风险、LLM越狱攻击产生的原理、相关案例及大语言安全对齐技术研究等相关内容,使我们对大语言模型面临的漏洞挖掘及防御有了深刻的理解。
2024-08-16 11:39:04 885
原创 “AI+Security”系列第2期(二):人工智能风险治理机遇与挑战
君同未来创始人兼 CEO 韩蒙发表了题为《人工智能风险治理机遇与挑战》的精彩演讲,深入探讨了大模型落地风险合规的要求与趋势,对生成式人工智能风险治理技术进行了展望,同时也剖析了人工智能产业发展所面临的挑战以及未来的机遇。
2024-08-15 13:49:59 1068
原创 第63期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
2024-08-13 10:34:35 702
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人