模型窃取
文章平均质量分 90
相关论文阅读
Bosenya12
just do it
展开
-
【论文阅读】AugSteal: Advancing Model Steal With Data Augmentation in Active Learning Frameworks(2024)
设计了一个名为Fusion Augmentation的数据增强模块,整合了两种创新的损失函数计算方法,并引入了动态超参数调整策略。开发了一种自适应的主动学习选择策略,选择对不同黑盒模型具有重要信息增益的数据样本,提高攻击的特异性和有效性。开发了一种结合边际概率和聚类方法的主动学习选择策略(MPCL),专注于选择对模型训练非常有价值的样本。提出了一种基于主动学习的融合增强模型窃取框架(AugSteal),用于硬标签黑盒模型。提出了一种创新的数据集优化算法,有效消除混淆因素,同时保留样本的完整性。原创 2024-09-04 18:51:17 · 1225 阅读 · 1 评论 -
【论文阅读】DivTheft: An Ensemble Model Stealing Attack by Divide-and-Conquer(2023)
model stealing/extraction attack,模型窃取/提取攻击。Ensemble learning,集成学习。black-box attack,黑盒攻击。MLaaS,机器学习即服务。原创 2024-09-03 11:36:47 · 1012 阅读 · 1 评论 -
【论文阅读】SwiftTheft: A Time-Efficient Model Extraction Attack Framework(2024)
这份文件是一篇关于人工智能安全领域的研究论文,标题为“SwiftTheft: A Time-Efficient Model Extraction Attack Framework Against Cloud-Based Deep Neural Networks”,作者是来自中国武汉大学和浙江大学的研究人员原创 2024-09-03 11:24:31 · 819 阅读 · 0 评论 -
【论文阅读】Purloining Deep Learning Models Developed for an Ultrasound Scanner to a Competitor Machine
原创 2024-08-30 14:41:46 · 917 阅读 · 0 评论 -
【论文阅读】QUEEN: Query Unlearning against Model Extraction(2024)
disruption-based defenses,基于中断的防御。Model extraction attacks,模型提取安全。sensitivity measurement,灵敏度测量。AI security,人工智能安全。原创 2024-08-30 14:10:34 · 1389 阅读 · 0 评论 -
【论文阅读】Fully Exploiting Every Real Sample: SuperPixel Sample Gradient Model Stealing(2024)
原创 2024-08-30 10:56:16 · 625 阅读 · 0 评论 -
【论文阅读】Stealing Image-to-Image Translation Models With a Single Query(2024)
Training deep neural networks(训练深度神经网络) requires(需要) significant computational resources(大量计算资源) and large datasets(大型数据集) that are often confidential(机密的) or expensive(昂贵的) to collect. As a result(因此), owners(所有者) tend to(倾向于) protect(保护) their models by原创 2024-08-29 20:27:47 · 1141 阅读 · 0 评论 -
【论文阅读】基于生成对抗网络的模型窃取方法的研究(2021)
提出了一种基于生成对抗网络的模型窃取方法——GBMS(Generative adversarial networks Based Model Stealing method),GBMS允许攻击者在没有真实数据的情况下训练替代模型,完成对目标黑盒模型的窃取任务。原创 2024-08-27 15:44:04 · 522 阅读 · 0 评论 -
【论文阅读】Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks(2024)
现有的模型窃取方法依赖于只对齐发送给受害者和代理模型的单个图节点的预测。将代理模型的节点表示与受害者模型的相应表示对齐,同时将其与其他节点的表示区分开来。通过在训练过程中集成谱增强来增强代理模型的图输入,进一步提高了发送给受害者模型的每个查询的窃取过程的效率。值得强调的是,目前大多数关于模型窃取攻击的努力都集中在图像和文本数据的ML模型上[31,23,34,17]。受最近编码器模型窃取方法的启发[5,20,28],我们利用了增强图输入应该产生相似模型输出的重要事实。原创 2024-08-27 10:02:36 · 875 阅读 · 0 评论 -
【论文阅读】GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation(2024)
Membership inference attack,成员推理攻击。knowledge distillation,知识蒸馏。trustworthy AI,可信人工智能。原创 2024-08-23 14:13:44 · 626 阅读 · 0 评论 -
【论文阅读】MEGA: Model Stealing via Collaborative Generator-Substitute Networks(2022)
Deep machine learning models(深度机器学习模型) are increasingly(越来越多) deployed(部署) in the wild(在野外) for providing services to users(给用户提供服务). Adversaries may steal the knowledge of these valuable models(窃取有价值模型的知识) by training substitute models(训练替代模型) according t原创 2024-08-23 10:01:28 · 906 阅读 · 0 评论 -
【论文阅读】Model Stealing Attacks Against Inductive Graph Neural Networks(2021)
Many real-world data(真实世界的数据) come in the form of graphs(以图片的形式). Graph neural networks (GNNs 图神经网络), a new family of machine learning (ML) models, have been proposed to fully leverage graph data(充分利用图数据) to build powerful applications(构建强大的应用程序). In parti原创 2024-08-22 10:02:24 · 857 阅读 · 0 评论 -
【论文阅读】Model Extraction Attacks on Graph Neural Networks: Taxonomy and Realisation(2021)
Model Extraction Attack,模型提取攻击。Graph Neural Networks,图神经网络。原创 2024-08-22 09:34:58 · 763 阅读 · 0 评论 -
【论文阅读】Zero-Shot Knowledge Distillation from a Decision-Based Black-Box Model(2021)
样本距离(Sample Distance, SD):计算样本到其他类别样本的最小欧几里得距离,以估计样本对其他类别的鲁棒性。边界距离(Boundary Distance, BD):通过二分搜索找到样本到教师模型决策边界的最近点,并计算该点到样本的距离。最小边界距离(Minimal Boundary Distance, MBD):进一步优化BD,通过零阶优化估计边界梯度,并沿梯度方向推动样本远离边界,直到找到最小化距离的点。原创 2024-08-21 14:02:48 · 1044 阅读 · 0 评论 -
【论文阅读】PRADA: Protecting Against DNN Model Stealing Attacks(2019)
Alternative(备选) model stealing attacks(模型窃取攻击) assume(假设) access to large sets of natural samples(可以访问大量自然样本) and use active learning strategies(主动学习策略) to select the best samples(选择最佳的样本) to query [37].原创 2024-08-21 09:57:35 · 913 阅读 · 0 评论 -
【论文阅读】APMSA: Adversarial Perturbation Against Model Stealing Attacks(2023)
换句话说,对于威胁模型隐私的模型窃取攻击,利用API查询公共数据的可接受次数(即通常较小),并从MUA获取返回的预测,以构建用于训练替代/被盗模型的“传输数据集”,从而危及MUA的隐私并破坏其业务价值。值得注意的是,除了私下使用被盗模型进行进一步的免费查询外,被盗模型还可以用来制作可转移的对抗示例来欺骗MUA[12],[13]。攻击者通过私有模型提供的付费查询服务(即MLaaS提供的API),对查询的输入x获得预测y,在某些情况下,返回的预测通常是概率向量(即x属于特定类别的置信度)或标签(top-1)。原创 2024-08-20 11:37:26 · 1183 阅读 · 0 评论 -
【论文阅读】Prediction Poisoning: Towards Defenses Against DNN Model Stealing Attacks(2020)
对DNN模型窃取攻击的防御从被动防御到主动防御。原创 2024-08-20 08:57:08 · 762 阅读 · 0 评论 -
【论文阅读】Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing Attack(2021)
Previous studies have verified that(先前的研究已经证实) the functionality of black-box models(黑盒模型的功能) can be stolen with full probability outputs(全概率输出). However, under the more practical hard-label setting(在更实际的硬标签设置下), we observe that existing methods(现有的方法) suf原创 2024-08-19 15:04:35 · 889 阅读 · 0 评论 -
【论文阅读】Learning Black-Box Attackers with Transferable Priors and Query Feedback(2020)
在模型窃取攻击中,攻击者通过对受害者模型进行查询,并利用查询结果反向构建具有相似功能的替代模型。然后,攻击者可以利用替代模型发起进一步的对抗攻击。原创 2024-08-19 14:22:52 · 935 阅读 · 0 评论 -
【论文阅读】ActiveThief: Model Extraction Using Active Learning and Unannotated Public Data(2020)
Quiring, Arp, and Rieck (2018) show that(表明) when the secret model(秘密模型)is a decision tree(决策树), defenses against model watermarking(模型水印) can also be used as defenses(用于防御) for model extraction attacks(模型提取攻击).原创 2024-08-19 13:40:08 · 1121 阅读 · 0 评论 -
【论文阅读】Enhance Model Stealing Attack via Label Refining(2022)
The Black-box dissector (BD) [5] uses a prior-driven(先验驱动) erasing operation(擦除操作), which can fit(拟合) the victim’s attention map(注意图) while obtaining other classes’ information via erasing the attention area of the sample(通过擦除样本的注意区域).model stealing:模型窃取。原创 2024-08-19 10:27:07 · 1182 阅读 · 0 评论 -
【论文阅读】Copycat CNN: Stealing Knowledge by Persuading Confession with Random Non-Labeled Data(2018)
In the past few years, Convolutional Neural Networks (CNNs 卷积神经网络) have been achieving state-of-the-art performance(已经取得了最先进的性能) on a variety of problems(在各种问题上).原创 2024-08-16 15:01:04 · 678 阅读 · 2 评论 -
【论文阅读】Knockoff Nets: Stealing Functionality of Black-Box Models(2019)
这篇论文《Knockoff Nets: Stealing Functionality of Black-Box Models》由Tribhuvanesh Orekondy、Bernt Schiele和Mario Fritz撰写,探讨了在黑盒交互条件下,攻击者能够多大程度上复制一个“受害者”机器学习模型的功能。问题背景机器学习模型,尤其是深度神经网络,被广泛部署在各种应用中以提高效率或用户体验。开发这些模型需要大量的时间、金钱和人力,但一旦部署,它们可能面临被攻击者复制功能的风险。研究问题。原创 2024-08-16 12:35:24 · 1133 阅读 · 2 评论