自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(106)
  • 收藏
  • 关注

原创 【论文阅读】GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation(2024)

Membership inference attack,成员推理攻击。knowledge distillation,知识蒸馏。trustworthy AI,可信人工智能。

2024-08-23 14:13:44 512

原创 【论文阅读】MEGA: Model Stealing via Collaborative Generator-Substitute Networks(2022)

Deep machine learning models(深度机器学习模型) are increasingly(越来越多) deployed(部署) in the wild(在野外) for providing services to users(给用户提供服务). Adversaries may steal the knowledge of these valuable models(窃取有价值模型的知识) by training substitute models(训练替代模型) according t

2024-08-23 10:01:28 872

原创 【论文阅读】Model Stealing Attacks Against Inductive Graph Neural Networks(2021)

Many real-world data(真实世界的数据) come in the form of graphs(以图片的形式). Graph neural networks (GNNs 图神经网络), a new family of machine learning (ML) models, have been proposed to fully leverage graph data(充分利用图数据) to build powerful applications(构建强大的应用程序). In parti

2024-08-22 10:02:24 724

原创 【论文阅读】Model Extraction Attacks on Graph Neural Networks: Taxonomy and Realisation(2021)

Model Extraction Attack,模型提取攻击。Graph Neural Networks,图神经网络。

2024-08-22 09:34:58 734

原创 【论文阅读】Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models(2018)

In recent years(近年来), deep neural network approaches(深度神经网络方法) have been widely adopted for(被广泛应用于) machine learning tasks(机器学习任务), including classification(分类). However, they were shown(被证明) to be vulnerable(容易受到) to adversarial perturbations(对抗性扰动): care

2024-08-21 15:18:03 453

原创 【论文阅读】DaST: Data-free Substitute Training for Adversarial Attacks(2020)

Machine learning models(机器学习模型) are vulnerable(容易受到) to adversarial examples(对抗样本). For the black-box setting(对于黑盒设置), current substitute attacks(目前替代攻击) need pre-trained models(预训练模型) to generate adversarial examples(生成对抗样本). However, pre-trained models(预

2024-08-21 14:36:18 965

原创 【论文阅读】Zero-Shot Knowledge Distillation from a Decision-Based Black-Box Model(2021)

样本距离(Sample Distance, SD):计算样本到其他类别样本的最小欧几里得距离,以估计样本对其他类别的鲁棒性。边界距离(Boundary Distance, BD):通过二分搜索找到样本到教师模型决策边界的最近点,并计算该点到样本的距离。最小边界距离(Minimal Boundary Distance, MBD):进一步优化BD,通过零阶优化估计边界梯度,并沿梯度方向推动样本远离边界,直到找到最小化距离的点。

2024-08-21 14:02:48 1019

原创 【论文阅读】PRADA: Protecting Against DNN Model Stealing Attacks(2019)

Alternative(备选) model stealing attacks(模型窃取攻击) assume(假设) access to large sets of natural samples(可以访问大量自然样本) and use active learning strategies(主动学习策略) to select the best samples(选择最佳的样本) to query [37].

2024-08-21 09:57:35 834

原创 【论文阅读】APMSA: Adversarial Perturbation Against Model Stealing Attacks(2023)

换句话说,对于威胁模型隐私的模型窃取攻击,利用API查询公共数据的可接受次数(即通常较小),并从MUA获取返回的预测,以构建用于训练替代/被盗模型的“传输数据集”,从而危及MUA的隐私并破坏其业务价值。值得注意的是,除了私下使用被盗模型进行进一步的免费查询外,被盗模型还可以用来制作可转移的对抗示例来欺骗MUA[12],[13]。攻击者通过私有模型提供的付费查询服务(即MLaaS提供的API),对查询的输入x获得预测y,在某些情况下,返回的预测通常是概率向量(即x属于特定类别的置信度)或标签(top-1)。

2024-08-20 11:37:26 1128

原创 【论文阅读】Prediction Poisoning: Towards Defenses Against DNN Model Stealing Attacks(2020)

对DNN模型窃取攻击的防御从被动防御到主动防御。

2024-08-20 08:57:08 735

原创 【论文阅读】Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing Attack(2021)

Previous studies have verified that(先前的研究已经证实) the functionality of black-box models(黑盒模型的功能) can be stolen with full probability outputs(全概率输出). However, under the more practical hard-label setting(在更实际的硬标签设置下), we observe that existing methods(现有的方法) suf

2024-08-19 15:04:35 864

原创 【论文阅读】Learning Black-Box Attackers with Transferable Priors and Query Feedback(2020)

在模型窃取攻击中,攻击者通过对受害者模型进行查询,并利用查询结果反向构建具有相似功能的替代模型。然后,攻击者可以利用替代模型发起进一步的对抗攻击。

2024-08-19 14:22:52 919

原创 【论文阅读】ActiveThief: Model Extraction Using Active Learning and Unannotated Public Data(2020)

Quiring, Arp, and Rieck (2018) show that(表明) when the secret model(秘密模型)is a decision tree(决策树), defenses against model watermarking(模型水印) can also be used as defenses(用于防御) for model extraction attacks(模型提取攻击).

2024-08-19 13:40:08 1100

原创 【论文阅读】Enhance Model Stealing Attack via Label Refining(2022)

The Black-box dissector (BD) [5] uses a prior-driven(先验驱动) erasing operation(擦除操作), which can fit(拟合) the victim’s attention map(注意图) while obtaining other classes’ information via erasing the attention area of the sample(通过擦除样本的注意区域).model stealing:模型窃取。

2024-08-19 10:27:07 1162

原创 【论文阅读】Copycat CNN: Stealing Knowledge by Persuading Confession with Random Non-Labeled Data(2018)

In the past few years, Convolutional Neural Networks (CNNs 卷积神经网络) have been achieving state-of-the-art performance(已经取得了最先进的性能) on a variety of problems(在各种问题上).

2024-08-16 15:01:04 657 2

原创 【论文阅读】Knockoff Nets: Stealing Functionality of Black-Box Models(2019)

这篇论文《Knockoff Nets: Stealing Functionality of Black-Box Models》由Tribhuvanesh Orekondy、Bernt Schiele和Mario Fritz撰写,探讨了在黑盒交互条件下,攻击者能够多大程度上复制一个“受害者”机器学习模型的功能。问题背景机器学习模型,尤其是深度神经网络,被广泛部署在各种应用中以提高效率或用户体验。开发这些模型需要大量的时间、金钱和人力,但一旦部署,它们可能面临被攻击者复制功能的风险。研究问题。

2024-08-16 12:35:24 1078 2

原创 【学习笔记】如何训练大模型

单个 GPU 工作线程的内存有限,并且许多大型模型的大小已经超出了单个 GPU 的范围。有几种并行范式可以跨多个 GPU 进行模型训练,还可以使用各种模型架构和内存节省设计来帮助训练超大型神经网络。

2024-08-13 08:31:30 513

原创 【实验代码】Implementation of FGSM and PGD

快速梯度符号方法Projected Gradient Descent。

2024-08-12 14:57:23 298

原创 【图书阅读】人工智能数据与模型安全

可信机器学习是机器学习的一个新兴的分支,旨在解决现有机器学习算法和模型的可信度问题。可解释性一般鲁棒性对抗鲁棒性(对抗性攻击和防御)数据中毒(数据中毒和防御)后门鲁棒性(后门攻击和防御)隐私(数据泄露和模型窃取)差分隐私联邦学习公平性数据篡改和伪造。

2024-08-12 10:31:28 985

原创 【论文阅读】A Robust Adversarial Network-Based End-to-End Communications System With Strong Generalization

本文提出了一种基于GAN的通信系统端到端学习防御方法,该方法使用生成网络对强大的对抗性扰动进行建模,并联合训练端到端通信系统对抗生成攻击网络。我们的方法可以学习一个端到端通信系统,该系统对各种对抗性扰动(包括白盒和黑盒攻击)具有鲁棒性,而不会降低系统的泛化性能。在评估结果中,基于GAN的通信系统比经典通信方案和经过常规训练和对抗性训练的端到端通信系统表现出更好的性能和防御能力。

2024-08-09 15:27:01 911

原创 【资源分享】外文文献检索网站

网址链接:https://www.sci-hub.st/Sci-hub是一个可以无限搜索、查阅和下载大量优质论文的数据库。其优点在于可以免费下载论文文献。

2024-08-08 15:26:06 307

原创 【免费资源】GPU资源

大模型资源丰富8核24G显存可以免费白嫖36小时。

2024-07-10 00:14:14 219

原创 【算法介绍】开集识别算法 OpenMax

OpenMax是一种用于深度学习模型的,它能够在模型的输出中区分已知类别和未知类别。该算法的核心思想是利用深度神经网络的倒数第二层(全连接层)的激活向量,通过构建每个类别的平均激活向量(MAV)和距离集(D),进而使用极值理论(EVT)来拟合这些激活向量的分布,从而计算出每个测试样本属于已知类别的概率。如果一个测试样本的概率低于某个阈值,则它被认为是未知类别。

2024-06-25 15:29:44 694

原创 【python包安装】手动安装libmr

libMR介绍libMR(即"Library for Machine learning on ROC space")是一个用于在ROC空间进行机器学习的库,主要用于处理开集识别(Open Set Recognition)和相关问题。在开集识别中,通常需要区分已知类别和未知类别的数据,而libMR提供了一些工具和算法来帮助处理这种情况。libMR应用ROC空间方法: libMR专注于ROC(Receiver Operating Characteristic)空间的分析和方法。

2024-06-22 11:34:50 758

原创 【Research】Model Stealing

Accuracy?Fidelity?

2024-06-21 23:51:48 977

原创 【开源实验】模型窃取(KnockoffNet)

使用KnockoffNet方法对预训练的Resnet50模型进行模型窃取攻击(model stealing attack)

2024-06-17 17:10:15 333

原创 【python库】timm

库 “timm” 是一个用于视觉模型的PyTorch库,全称为 “PyTorch Image Models”。它提供了许多现代的图像分类、目标检测、语义分割等深度学习模型的实现,旨在简化模型的使用和训练过程。

2024-06-17 16:25:15 369

原创 【代码调试】ImportError: cannot import name ‘zero_gradients‘ from ‘torch.autograd.gradcheck‘

最近在复现运行代码时候遇到以下错误:ImportError: cannot import name ‘zero_gradients’ from ‘torch.autograd.gradcheck’ (C:\Users\zsh\anaconda3\envs\zshpytorch\lib\site-packages\torch\autograd\gradcheck.py)删掉以下代码修改替换为参考链接Pytorch1.9 ImportError: cannot import name ‘zero_gra

2024-06-13 17:03:07 295

原创 【python脚本】自动化办公处理excel表格

【代码】【python脚本】自动化办公处理excel表格。

2024-06-07 15:50:54 668

原创 【python模块】argparse

argsparse是python的命令行解析的标准模块,内置于python,不需要安装。这个库可以让我们直接在命令行中就可以向程序中传入参数并让程序运行。

2024-05-23 16:52:22 235

原创 【PyTorch学习】代码模板

【代码】【PyTorch学习】代码模板。

2024-05-22 16:33:30 229

原创 【重装系统】U盘制作软件——Rufus

Rufus 是一款格式化和创建 USB 启动盘的辅助工具。本软件适用于以下场景:需要将可引导 ISO (Windows、Linux、UEFI 等) 刻录到 USB 安装媒介的情况需要处理未安装操作系统的设备的情况需要在 DOS 环境下刷写 BIOS 或其他固件的情况需要运行低级工具的情况。

2024-05-13 17:44:35 289

原创 【大模型学习】大模型相关概念

嵌入,又称向量化、矢量化。

2024-05-03 20:12:12 406

原创 【大模型学习】私有大模型部署(基础知识)

保护内部隐私。

2024-05-03 19:39:07 1402 2

原创 【大模型学习】Transformer(学习笔记)

Word2Vec是一种用于将词语映射到连续向量空间的技术,它是由Google的Tomas Mikolov等人开发的。Word2Vec模型通过学习大量文本数据中的词语上下文信息,将每个词语表示为高维空间中的向量。在这个向量空间中,具有相似语境的词语通常被映射到彼此附近的位置,从而使得词语之间的语义关系得以保留。Word2Vec有两种主要的模型结构:连续词袋模型()和模型。CBOW模型试图根据上下文词语预测目标词语,而Skip-gram模型则相反,它试图根据目标词语预测上下文词语。

2024-05-01 16:36:18 803 2

原创 【python】socket通信

server.py。

2024-04-28 21:03:58 224

原创 【python脚本】根据excel表格数据查找文件

【代码】【python脚本】根据excel表格数据查找文件。

2024-04-22 17:01:07 477

原创 【python脚本】课表信息生成 course_test(源代码)

在处理excel表格数据中编写的一个可以自动处理课表信息的脚本。

2024-04-19 22:20:14 406

原创 【学习笔记】论文创新点

改进 优先 增强。

2024-04-19 22:02:59 353

原创 【学习笔记】Anaconda 零基础使用说明

Anaconda 是 Python 的一个科学计算发行版,支持 Linux、Mac 和 Windows 系统,其中内置了上千个 Python 经常会用到的库,包括 Scikit-learn、numpy、pandas、scipy 等等。

2024-04-19 20:26:55 669

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除