论文精读
文章平均质量分 93
0x211
这个作者很懒,什么都没留下…
展开
-
[论文精读]Membership Inference Attacks Against Machine Learning Models
中文译名:针对机器学习模型的成员推理攻击会议名称:2017 IEEE Symposium on Security and Privacy (SP)我认为有必要看看人家的代码怎么写的。阅读原因:要做一个成员推理攻击的任务,需要了解什么是成员推理攻击探讨的核心内容:给定一个数据集和一个黑盒模型,决策是否这个数据集是模型的训练集。原创 2024-09-27 16:57:25 · 420 阅读 · 0 评论 -
[论文精读]TorWard: Discovery, Blocking, and Traceback of Malicious Traffic Over Tor
期刊名称:IEEE Transactions on Information Forensics and Security中文译名:TorWard:发现,阻止和追踪 Tor 上的恶意流量阅读原因:计网、网安、方班论文主要探讨了在Tor网络上发现、阻止和追踪恶意流量的方法和技术。原创 2024-09-27 15:29:35 · 956 阅读 · 0 评论 -
[论文精读]AI-Guardian: Defeating Adversarial Attacks using Backdoors
本文提出了AI-Guardian框架,本质是让模型预测结果受到后门控制,而很难被攻击者操纵,从而抵御对抗攻击。在模型训练阶段,AI-Guardian会针对原始训练样本生成一批后门样本(经过后门处理的样本),按标签双射关系为后门样本分配对应标签,实现后门注入;在模型预测阶段,AI-Guardian先对输入数据进行后门处理,然后将其输入到模型,根据模型输出结果、标签双射关系返回对输入数据真实标签的预测结果。原创 2024-09-27 10:58:53 · 805 阅读 · 0 评论 -
[论文精读]Denoising Diffusion Probabilistic Models
DDPM模型通过马尔可夫链反向去噪过程实现了高质量的图像生成,并在生成任务中展示了优异的性能。原创 2024-09-22 16:07:59 · 756 阅读 · 0 评论 -
[论文精读]Understanding Diffusion Models: A Unified Perspective
文章详细讨论了扩散模型(Diffusion Models)作为一种生成模型的工作原理,并从多个角度解释其背后的数学机制。阅读原因:实验需要理解SD的数学建模过程。原创 2024-09-22 15:57:55 · 537 阅读 · 0 评论 -
[论文精读]Can ChatGPT Detect DeepFakes? A Study of Using Multimodal Large Language Models for Media Fore
深度伪造(DeepFakes)是指人工智能生成的媒体内容,由于其被用作造谣的手段,已日益引起人们的关注。目前,检测 DeepFakes 的问题主要通过编程机器学习算法来解决。在这项工作中,我们研究了多模态大型语言模型(LLM)在检测 DeepFake 方面的能力。我们进行了定性和定量实验来展示多模态大语言模型,并表明它们可以通过仔细的实验符号和提示工程来识别人工智能生成的图像。考虑到 LLM 本身并不是为媒体取证任务量身定制的,而且这一过程不需要编程,因此这 一点非常有趣。原创 2024-09-19 22:41:42 · 729 阅读 · 0 评论 -
[论文精读]PrivEdge: From Local to Distributed Private Training and Prediction
中文译名:PrivEdge:从本地到分布式的隐私训练和预测期刊:IEEE Transactions on Information Forensics and Security阅读原因:安全性相关、方班需要。原创 2024-09-19 21:19:11 · 858 阅读 · 0 评论 -
[论文精读]Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented
检索增强生成(RAG)通过整合来自检索的附加信息来增强大型语言模型(LLM)。然而,研究表明,大语言模型在有效利用检索信息方面仍然面临挑战,甚至会忽略检索信息或被检索信息误导。其关键原因在于,对 LLM 的训练并不能让 LLM 明确学会如何利用输入的不同质量的检索文本。在本文中,我们提出了一个新的视角,将 LLMs 在 RAG 中的角色视为 "信息提炼者",即无论检索文本的正确性、完整性或有用性如何,LLMs 都能持续整合检索文本中的知识和模型参数,生成比检索文本更简洁、准确和完整的文本。原创 2024-09-15 21:38:51 · 915 阅读 · 0 评论 -
[论文精读]Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
这篇论文介绍了RAG的核心概念,提出了一种结合检索与生成的框架,用于知识密集型任务。该方法首先从外部知识库中检索相关文档,然后利用这些文档指导生成模型生成答案。论文还评估了RAG在开放域问答(Open-Domain QA)任务中的性能。核心思想介绍:对于输入序列x,使用x来检索文档z中的知识,并使用检索出来的结果作为生成目标y的额外参考。RAG的核心是由检索器(Retriever)和生成器(Generator)组成。前者用于从知识库中检索和查询相关的文档信息;后者则基于前者检索到的信息来生成对应的答案。原创 2024-09-15 21:02:15 · 1055 阅读 · 0 评论 -
[论文精读]Dense Passage Retrieval for Open-Domain Question Answering
DPR通过将查询和文档嵌入到相同的语义空间,显著提高了开放域问答中的文档检索效果。相比传统的稀疏检索方法,DPR 能够更好地捕捉语义信息,并在多个开放域问答任务中实现了 SOTA(state-of-the-art)性能。DPR 的提出不仅为开放域问答系统提供了更好的文档检索方案,也为基于密集表示的检索技术在其他领域的应用提供了新的思路。原创 2024-09-15 20:17:40 · 962 阅读 · 0 评论