![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文速读/精读
文章平均质量分 87
云起无垠
这个作者很懒,什么都没留下…
展开
-
【论文速读】|当LLM遇见网络安全:系统性文献综述
通过对这些研究成果的深入分析,文章全面审视了大语言模型在网络安全应用领域的现状、面临的挑战以及未来的发展,为进一步的研究提供了坚实的基础和新的思路。未来的研究应侧重于增强LLM的适应性和安全性,探索新的训练方法以增强模型对复杂网络威胁的响应能力,并制定新的评估标准以全面测试LLM在安全关键环境中的性能。随着大语言模型(LLMs)的迅猛发展,它们为多个领域带来了新的机遇,特别是在网络安全领域,该领域正面临着不断变化的威胁和对创新技术的迫切需求。原作者:论文解读智能体。网络安全,大语言模型。原创 2024-06-12 09:57:41 · 740 阅读 · 0 评论 -
【论文速读】| 通过大语言模型从协议实现中推断状态机
本文提出了一种利用大语言模型(LLM)从网络协议实现中推断状态机的方法。此方法通过文本嵌入技术,使LLM能够深入分析协议实现代码的细节,并通过系统的提示工程识别和推断潜在的状态机。原创 2024-06-11 10:36:30 · 661 阅读 · 0 评论 -
【论文速读】| BIOCODER:一个具有上下文实用知识的生物信息学代码生成基准测试
本文详细阐述了生物信息学领域中复杂的数据处理需求和专业知识的深度,并强调了现有大语言模型(LLM)在代码生成方面的成就及其局限性原创 2024-06-07 17:25:34 · 519 阅读 · 0 评论 -
【论文速读】|探索ChatGPT在软件安全应用中的局限性
本论文深入探讨了大语言模型(LLMs),尤其是OpenAI的ChatGPT,在软件安全领域的应用潜力及其局限性。原创 2024-05-20 11:07:05 · 855 阅读 · 0 评论 -
【论文速读】|大语言模型是少样本测试员:探索基于LLM的通用漏洞复现
本文介绍了一个名为LIBRO的新型框架,该框架利用大语言模型(LLM)从BUG报告中自动生成测试用例,目的是实现BUG的有效复现。原创 2024-05-17 11:48:36 · 910 阅读 · 0 评论 -
【论文速读】|大语言模型是零样本模糊测试器:通过大语言模型对深度学习库进行模糊测试
本文通过开发名为TitanFuzz的工具,利用大语言模型(LLM)生成和变异程序输入,从而增强了测试的广度和深度。这一方法有效地提升了深度学习库的缺陷检测能力,实现了对复杂API和代码的更全面覆盖。原创 2024-05-10 15:27:12 · 767 阅读 · 0 评论 -
【论文速读】| LLM4FUZZ:利用大语言模型指导智能合约的模糊测试
本论文综述了现有的智能合约Fuzzing技术,并指出它们主要依赖静态分析或动态执行跟踪来自动化地生成测试用例。然而,这些技术常局限于现有代码的API用法,难以探索新功能或深入挖掘潜在的复杂用例。原创 2024-05-09 11:54:50 · 1074 阅读 · 2 评论 -
【论文速读】|针对模糊驱动生成的提示性模糊测试
本文介绍了PromptFuzz,一种新型的基于覆盖引导的Fuzz测试方法,旨在改进自动化Fuzz测试驱动的生成过程。该方法采用大语言模型生成Fuzz测试驱动,并通过覆盖引导策略对生成的代码进行迭代优化,从而探索库代码中未被覆盖的部分。在与现有的OSS-Fuzz及其他自动化Fuzz测试生成技术的比较中,PromptFuzz在实验中显示出更高的分支覆盖率和更有效的缺陷检测能力。原创 2024-05-08 17:25:43 · 676 阅读 · 0 评论 -
【论文速读】|理解基于大语言模型的模糊测试驱动程序生成
本研究探讨了使用大语言模型(LLMs)自动生成Fuzz驱动程序的可行性与挑战。通过设计五种查询策略,从基础到增强,系统性地分析了生成Fuzz驱动程序的过程,并通过与工业界使用的驱动程序进行比较,揭示了其实用性和潜在的改进方向。原创 2024-04-26 16:50:10 · 873 阅读 · 0 评论 -
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本文展示了大语言模型(LLM)智能体如何自主利用现实世界中的1-day漏洞。本研究收集了包含关键严重级别在内的15个1-day漏洞数据集,并在提供漏洞描述的情况下,使用GPT-4成功地利用了其中87%的漏洞,其表现远超其他模型和开源漏洞扫描器。原创 2024-04-25 17:55:02 · 788 阅读 · 4 评论 -
【论文速读】| 针对红队攻击和防御大模型的攻击提示生成
本文提出了一种新的红队攻击框架和防御框架,旨在通过半自动化的方式生成攻击提示(attack prompts),以测试和提高大语言模型(LLMs)的安全性。研究通过实验证明了这些框架在提高模型防御能力和识别潜在攻击方面的有效性。原创 2024-04-25 16:30:27 · 761 阅读 · 0 评论 -
【论文速读】| GPTFUZZER:利用自动生成的越狱提示对大型语言模型进行红队测试
本研究开发了一种名为GPTFUZZER的新型黑盒模糊测试框架,旨在自动化生成越狱模板以提升大语言模型(LLMs)的安全性。该框架借鉴了经典的AFL模糊测试框架,通过变异和评估人类编写的越狱模板,自动化地产生新模板。原创 2024-04-19 09:58:06 · 779 阅读 · 0 评论 -
【论文速读】| TroubleLLM:与红队专家对齐
本文介绍了一个新的大语言模型(LLM),TroubleLLM,专为测试其他LLM的安全性设计。该模型能够生成可控的测试提示,以探索和暴露LLM可能的安全风险,如社会偏见和生成有毒内容。原创 2024-04-18 09:44:47 · 555 阅读 · 0 评论 -
【论文速读】| 大语言模型是边缘情况模糊测试器:通过FuzzGPT测试深度学习库
这篇论文提出了一种名为FuzzGPT的新方法,它利用大语言模型(LLMs)生成非常规程序来测试深度学习(DL)库。通过对历史中引发错误的程序的研究,FuzzGPT能够生成更有效的测试程序,检测出多达76个错误,其中49个被确认为新的错误,包括11个高优先级错误或安全漏洞。原创 2024-04-17 10:07:08 · 1085 阅读 · 0 评论 -
【论文速读】| CovRL:基于覆盖引导的强化学习对LLM基础变异进行JavaScript引擎模糊测试
这篇论文介绍了CovRL这一创新技术,该技术融合了覆盖率引导的增强学习与大语言模型(LLM),通过将覆盖反馈直接融入到LLM,显著提升了针对JavaScript引擎的Fuzzing性能。利用TF-IDF方法创建的加权覆盖图,允许基于LLM的变异器产生更可能探索到新覆盖区域的测试用例,从而在提升漏洞侦测的效率和准确性方面取得了突破。原创 2024-04-12 15:15:35 · 601 阅读 · 0 评论 -
【论文速读】| CHEMFUZZ: 大语言模型辅助模糊测试用于量子化学软件缺陷检测
本论文介绍了一个称为CHEMFUZZ的新框架。该框架借助大语言模型(LLMs)进行量子化学软件的模糊测试,目的是发现软件潜在的漏洞。CHEMFUZZ通过使用LLMs生成既语法正确又语义有效的输入文件,并对这些文件进行修改,能够识别出量子化学软件中的各类漏洞,从而增强了软件的安全性与可靠性。原创 2024-04-11 09:55:01 · 780 阅读 · 0 评论 -
【论文速读】| 基于大语言模型的模糊测试技术
本文系统回顾了将大语言模型(LLMs)与模糊测试技术结合应用于软件测试的方法。研究表明,虽然现有的模糊测试技术还未能实现完全自动化,并且软件漏洞持续演化,但基于LLMs的模糊测试生成表现出显著的优势。此趋势促进了LLMs生成的模糊测试技术更广泛的部署和应用潜力。原创 2024-04-10 11:17:58 · 836 阅读 · 0 评论 -
【论文速读】| 大语言模型平台安全:将系统评估框架应用于OpenAI的ChatGPT插件
在这项研究中,研究者提出了一个框架,目的是为大语言模型(LLM)平台的设计者们提供一个基准,用于评估并增强这些平台及其集成插件在安全性、隐私性和可靠性方面的表现,既适用于当前环境也适应于未来发展。原创 2024-04-07 10:36:28 · 447 阅读 · 0 评论 -
【论文速读】| MASTERKEY:大语言模型聊天机器人的自动化越狱
本论文介绍了一个称为MASTERKEY的端到端的框架,其目标是探索越狱攻击和防御背后的整合机制。原创 2024-04-03 14:19:29 · 1003 阅读 · 0 评论 -
【论文速读】| 通过间接提示注入危害现实世界中的LLM集成应用
本篇论文提出了一种新的攻击方式,即间接提示注入(Indirect Prompt Injection, IPI),它允许攻击者远程(无需直接接口)通过在可能被检索的数据中策略性地注入提示来利用集成了大语言模型(LLM)的应用。原创 2024-03-29 10:35:04 · 588 阅读 · 0 评论 -
【论文速读】| 越狱:大语言模型安全训练是如何失败的?
这篇论文探讨了大语言模型(LLM)在安全训练上的漏洞,特别是针对“jailbreak”攻击的脆弱性。作者发现,尽管进行了大量的红队测试和安全训练,如GPT-4和Anthropic的Claude v1.3等模型依然容易受到攻击。原创 2024-03-28 10:27:57 · 287 阅读 · 0 评论 -
【论文速读】| 对大语言模型解决攻击性安全挑战的实证评估
本研究全面评价了LLMs在解决现实世界中的CTF挑战能力,并覆盖了从实际竞赛到完全自动化流程的各个阶段。研究成果不仅支持了LLMs在网络安全教育中的应用,同时也为系统性评估LLMs在网络安全攻击能力方面的潜力提供了新的研究路径。原创 2024-03-27 10:18:02 · 1379 阅读 · 0 评论 -
【论文速读】| 视觉对抗样本:突破对齐的大语言模型
本文研究了将视觉集成到大语言模型(LLMs)中的安全性和安全隐患。通过展示视觉对抗性样本如何绕过对齐LLMs的安全防护,揭示了视觉输入的连续性和高维性使其成为对抗性攻击的薄弱环节,扩大了视觉集成LLMs的攻击面。原创 2024-03-22 18:27:29 · 752 阅读 · 0 评论 -
【论文速读】| 增强静态分析以实现实用漏洞检测:一种集成大语言模型的方法
本文提出了一种名为LLift的框架,这是一个先进的自动化工具,旨在通过集成大语言模型(LLMs)来增强静态分析在错误检测中的能力。原创 2024-03-20 10:03:13 · 879 阅读 · 0 评论 -
【论文速读】| MOCK:上下文依赖引导的内核模糊测试
本文介绍了一种创新的内核模糊测试框架——MOCK。通过学习历史系统调用序列的上下文依赖并生成基于上下文的系统调用序列来优化变异过程,MOCK显著提高了分支覆盖率、输入质量和漏洞发现能力。原创 2024-03-14 11:48:22 · 336 阅读 · 0 评论 -
【论文速读】| DeepGo:预测式定向灰盒模糊测试
本文提出了一种名为DeepGo的预测式定向性灰盒模糊测试方法,通过结合历史和预测信息,利用深度神经网络和强化学习技术,有效地引导模糊测试达到目标路径,优化测试效率。原创 2024-03-13 12:01:07 · 938 阅读 · 0 评论