自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(84)
  • 收藏
  • 关注

原创 DetNet: A Backbone network for Object Detection

2、分类任务通过增大感受野来提高分类能力,但这不利于大目标定位和小目标检测,即便FPN在额外的阶段中又增加了上采样操作,但是模型无法获得已经丢失的小目标信息(小物体无法重建)。2、模型分类能力:下采样减少(主干网络中只进行前4层下采样)导致深层抽象特征不足,模型学习不到具有判别性的特征进行分类任务。1、很多目标检测方法都是由分类网络的主干增加额外的阶段变形而来,这些额外的阶段没有在ImageNet上经过预训练;采用ResNet50为主干网络,第一个16X后保持特征尺寸不变,并且固定通道数为256。

2024-07-14 15:15:39 343

转载 python中的颜色及其编码(自用方便查找)

原文链接:https://blog.csdn.net/weixin_53692824/article/details/123735749。#7B68EE MediumSlateBlue 中暗蓝色/中板岩蓝。#483D8B DarkSlateBlue 暗灰蓝色/暗板岩蓝。#778899 LightSlateGray 亮蓝灰/亮石板灰。#2F4F4F DarkSlateGray 暗瓦灰色/暗石板灰。#7FFF00 Chartreuse 黄绿色/查特酒绿。#BDB76B DarkKhaki 暗黄褐色/深卡叽布。

2024-07-14 15:10:30 23

原创 社交网络图数据集

官方网站:https://snap.stanford.edu/data/ 官方网站:https://sparse.tamu.edu/ 官方网站:https://snap.stanford.edu/data/com-Orkut.html下载链接:http://snap.stanford.edu/data/bigdata/communities/com-orkut.ungraph.txt.gzSource (citation) 来源(引用):J. Yang and J. Leskovec. Defi

2024-07-14 15:03:25 647

原创 Towards Fast Large-scale Graph Analysis via Two-dimensional Balanced Partitioning(A类会议ICPP 2022)

分布式图系统通常通过将大图划分为多个小图来利用机器集群。因此,图分区通常对分布式图系统的性能有很大的影响。然而,在实际的图系统中,现有的广泛使用的划分方案只能在一个维度上实现很好的平衡,例如顶点数或边数,并且可能会导致大量的切边。为了解决这个问题,我们开发了BPart,它采用两阶段划分方案来实现顶点和边的二维平衡。其核心思想是首先将原始图划分为比簇规模更多的小块,并将这些小块组合起来实现所需的属性,然后有选择地组合小块来构造更大的子图以生成二维平衡划分。

2024-04-10 11:39:09 693

原创 IOGP: An Incremental Online Graph Partitioning Algorithm for Distributed Graph Databases(2017)

图在诸如查询社交网络中的关系或管理科学计算中生成的丰富元数据等许多应用和领域中变得越来越重要。许多这些用例需要高性能的分布式图数据库,以便为来自客户端的持续更新提供服务,并同时回答有关当前图的复杂查询。图数据库中的这些操作,也称为在线事务处理(OLTP)操作,对图分区算法有特定的设计和实现要求。在本研究中,我们认为在图划分过程中有必要考虑连通性和顶点度的变化。基于这一思想,我们设计了一种增量在线图划分(IOGP)算法,该算法对顶点度的增量变化做出相应的响应。

2024-03-25 14:05:30 1058

原创 LEOPARD: Lightweight Edge-Oriented Partitioning and Replication for Dynamic Graphs(2016)

本文介绍了一种动态图划分算法,专为大型且不断变化的图而设计。我们提出了一个分区框架,可以随着图结构的变化而动态调整。我们还引入了与分区算法紧密结合的复制算法,进一步减少了分区算法的割边数。尽管所提出的方法在重新分配顶点时仅考虑图的局部部分,但广泛的评估表明,所提出的方法随着时间的推移保持了质量划分,这在任何时候都可以与使用最先进的静态图分区算法(如METIS)从头开始执行完整分区相媲美。此外,当使用顶点复制时,边割数可以提高一个数量级。

2024-03-24 18:02:44 601

原创 PowerLyra: Differentiated Graph Computation and Partitioning on Skewed Graphs(2019 ACM Trans)

具有倾斜分布的自然图对分布式图的计算和划分提出了独特的挑战。现有的图并行系统通常采用“一刀切”的设计,统一处理所有顶点,这导致明显的负载不平衡和高度顶点的高竞争(例如,Pregel和GraphLab),即使对于低度顶点,也会产生高通信成本和内存消耗(例如,PowerGraph和GraphX)。在本文中,我们认为自然图中的倾斜分布也需要对高度和低度顶点进行区分处理。然后我们介绍PowerLyra,这是一种新的分布式图形处理系统,它融合了现有图形并行系统的优点。

2024-03-23 22:11:36 921

原创 A Workload‑Adaptive Streaming Partitioner for Distributed Graph Stores(2021)

流式图划分方法最近引起了人们的关注,因为它们能够利用有限的资源扩展到非常大的图。然而,许多此类方法没有考虑工作负载和图特征。这可能会增加节点间通信和计算负载不平衡,从而降低查询性能。此外,现有的工作负载感知方法不能始终如一地提供良好的性能,因为它们没有考虑图形应用程序中不断出现的动态工作负载。我们通过提出一种名为 WASP 的新颖的工作负载自适应流分区器来解决这些问题,旨在实现低延迟和高吞吐量的在线图查询。由于每个工作负载通常包含频繁的查询模式,因此 WASP。

2024-03-17 22:26:53 596

原创 Heterogeneous Environment Aware Streaming Graph Partitioning(IEEE Trans2014)

随着图数据可用性的提高和云计算范式的广泛采用,图分区已经成为一种有效的预处理技术,可以平衡计算工作量和应对大量输入数据。由于对整个图进行分区的成本是昂贵的,因此最近有一些针对流图分区的尝试性工作,这些工作运行速度更快,易于并行化,并且可以增量更新。大多数现有的流分区工作都假设集群内的工作节点本质上是同质的。不幸的是,这个假设并不总是成立。实验表明,这些同构算法在异构环境中运行时性能会显着下降。在本文中,我们提出了一种新颖的自适应流图分区方法来应对异构环境。我们首先考虑每个节点的计算能力(例如CPU频率)和。

2024-03-17 16:24:06 345

原创 Subgraph mining in a large graph: A review(2022 WIREs DMKD)

大图通常用于对各种研究和应用领域中的复杂系统进行模拟和建模。由于其重要性,单个大图中的频繁子图挖掘(FSM)是一个至关重要的问题,最近它吸引了众多研究人员,并在研究和应用目的的各种任务中发挥了重要作用。FSM旨在找到大图中出现次数大于或等于给定频率阈值的所有子图。在最近的大多数应用中,底层图非常大,例如社交网络,因此基于单个大图的 FSM 算法得到了快速发展,但它们都具有 NP 难(非确定性多项式时间)复杂性和巨大的搜索空间,因此仍然需要大量的时间和内存来恢复和处理。

2023-12-24 21:38:37 117

原创 P=NP?

2000年5月24日,新罕布什尔州的克莱数学研究所列出了数学和计算机科学中七个未解决的问题。然而,直到今天,这些问题中只有一个被解决了,那就是庞加莱猜想(Poincaré Conjecture)——被俄罗斯数学家格里戈里-佩雷尔曼解决。而 P vs NP 问题就是其他六个未解决的问题之一。Onn其中,O1OlognOnOnlognOn2On3。

2023-12-05 22:27:46 146

原创 Attacking Fake News Detectors via Manipulating News Social Engagement(2023 WWW)

在年轻一代中,获取新闻的主要来源之一是社交媒体。随着新闻在各种社交媒体平台上日益流行,虚假信息和毫无根据的言论的传播也随之激增。随着提出了各种基于文本和社交背景的虚假新闻检测器,最近的研究开始关注虚假新闻检测器的漏洞。在本文中,我们提出了第一个针对基于图神经网络(GNN)的假新闻检测器的对抗性攻击框架,以探讨其鲁棒性。具体而言,我们利用多智能体强化学习(MARL)框架来模拟社交媒体上欺诈者的对抗行为。研究表明,在现实世界的环境中,欺诈者相互协作,共享不同的新闻,以逃避虚假新闻检测器的检测。

2023-11-29 15:10:47 229

原创 强化学习Q-Learning算法和简单迷宫代码

红色方块是 agent ,黄色圆圈和黑色方块都是目标状态,其中,黄色圆圈的奖励为 1,黑色方块的奖励为 -1。该迷宫一共有 16 个状态,每个状态可能的行为:u(上),d(下),l(左),r(右)。① 当前状态 2 的下一步行为只能选 3,根据迭代公式,考虑下一个状态和行为,状态 3 可能的行为:1、2 或 4。② 当前状态为 3,随机地,选取转至状态 4。下一个状态和行为:状态 4 可能的行为:0、3、5。③ 当前状态为 4,随机地,选取转至状态 5。下一个状态和行为:状态 5 可能的行为:1、4、5。

2023-11-28 19:37:01 348

原创 Adversarial Attack and Defense on Graph Data: A Survey(2022 IEEE Trans)

深度神经网络(DNN)已广泛应用于各种应用,包括图像分类、文本生成、音频识别和图数据分析。然而,最近的研究表明 DNN 很容易受到对抗性攻击。尽管在图像和自然语言处理等领域有一些关于对抗性攻击和防御策略的工作,但由于其表示结构,将学到的知识直接转移到图数据仍然很困难。鉴于图分析的重要性,过去几年越来越多的研究试图分析机器学习模型在图数据上的鲁棒性。然而,考虑图数据上的对抗行为的现有研究通常侧重于具有某些假设的特定类型的攻击。此外,每项工作都提出了自己的数学公式,这使得不同方法之间的比较变得困难。

2023-11-27 19:22:57 279

原创 Adversarial Attack on Graph Structured Data(2018 PMLR)

基于图结构的深度学习已经在各种应用中显示出令人兴奋的结果。然而,与图像或文本对抗攻击和防御的大量研究工作相比,此类模型的鲁棒性却很少受到关注。在本文中,我们重点关注通过修改数据组合结构来欺骗深度学习模型的对抗性攻击。我们首先提出一种基于强化学习的攻击方法,该方法学习可泛化的攻击策略,同时只需要来自目标分类器的预测标签。在额外的预测置信度或梯度可用的情况下,我们进一步提出基于遗传算法和梯度下降的攻击方法。我们使用合成数据和真实数据来表明,在图级和节点级分类任务中,一系列图神经网络模型很容易受到这些攻击。

2023-11-26 22:48:55 366

原创 DeepWalk代码实战-维基百科词条图嵌入可视化

参考资料:【DeepWalk代码实战-维基百科词条图嵌入可视化】 https://www.bilibili.com/video/BV1et4y187Gd/?

2023-11-25 23:26:29 149

原创 Adversarial attack on community detection by hiding individuals(2020 CCF A类会议WWW)

Adversarial attack on community detection by hiding individuals----《通过隐藏成员进行社区检测的对抗性攻击》 社区检测旨在将图划分成 KKK 个不相交的子图。摘要  已经证明,对抗图(即添加了难以察觉的扰动的图)可能会导致深度图模型在节点/图分类任务上失败。在本文中,我们将对抗图扩展到更困难的社区检测问题上。我们专注于黑盒攻击,并旨在将有针对性的个体隐藏在深度图社区检测模型的检测之外。这在现实世界的场景中有许多应用,例如在社

2023-11-25 11:47:28 283

原创 The PageRank Citation Ranking Bringing Order to the Web(1997 谷歌搜索引擎算法)以及用PageRank计算四大名著人物重要性及关系代码

数据集下载地址:http://openkg.cn/dataset/ch4masterpieces。衡量,不同入度边的权重不同,需要根据引用该网页的其他网页的重要性(将互联网表示成了图(有向图),(即特征值为1的特征向量)的概率被随机传送到其他节点,的概率按原路线随机游走,:一个网页的重要性以其。

2023-11-23 19:51:03 569

原创 Hierarchical Graph Representation Learning with Differentiable Pooling(2018 NeurIPS)

最近,图神经网络(GNN)通过有效学习节点嵌入彻底改变了图表示学习领域,并在节点分类和链接预测等任务中取得了最先进的结果。然而,当前的GNN方法本质上是扁平化的,不能学习图的层次表示——这一限制对于图分类任务来说尤其成问题,因为图分类的目标是预测与整个图相关联的标签。在这里,我们提出了DIFFPOOL,这是一个可微分的图池模块,可以生成图的层次表示,并可以与各种图神经网络结构在端到端方式的组合。

2023-11-22 21:10:15 282

原创 DeepWalk: Online Learning of Social Representations(2014 ACM SIGKDD)

我们提出了 DeepWalk,一种学习网络中节点潜在表示的新方法。这些潜在表示在连续向量空间中对社会关系进行编码,很容易被统计模型利用。DeepWalk 概括了语言建模和无监督特征学习(或深度学习)从单词序列到图形的最新进展。DeepWalk 使用从截断随机游走获得的局部信息,通过将游走视为句子的等价物来学习潜在表示。我们在 BlogCatalog、Flickr 和 YouTube 等社交网络的多个多标签网络分类任务上展示了 DeepWalk 的潜在表示。

2023-11-22 12:09:39 453

原创 Universal adversarial perturbations(2017 CVPR)

给定最先进的深度神经网络分类器,我们证明了存在一个通用的(与图像无关的)且非常小的扰动向量,该向量会导致自然图像以高概率被错误分类。我们提出了一种用于计算普遍扰动的系统算法,并表明最先进的深度神经网络非常容易受到这种扰动的影响,尽管人眼几乎无法察觉。我们进一步对这些普遍的扰动进行了实证分析,并特别表明它们在神经网络中具有很好的泛化性。普遍扰动的存在揭示了分类器高维决策边界之间的重要几何相关性。它进一步概述了输入空间中存在单一方向的潜在安全漏洞,对手可能会利用这些方向来破坏大多数自然图像的分类器。

2023-11-20 17:00:36 321

原创 Adversarially Robust Neural Architecture Search for Graph Neural Networks(2023CVPR)

图神经网络(GNN)在关系数据建模方面取得了巨大成功。尽管如此,它们仍然容易受到对抗性攻击,这对于将 GNN 应用到风险敏感领域来说是巨大的威胁。现有的防御方法既不能保证面对新数据/任务或对抗性攻击的性能,也不能提供从架构角度理解 GNN 鲁棒性的见解。神经架构搜索(NAS)有望通过自动化GNN架构设计来解决这个问题。然而,当前的图 NAS 方法缺乏稳健的设计,并且容易受到对抗性攻击。为了应对这些挑战,我们提出了一种新颖的GNN 鲁棒神经架构搜索框架(G-RNA)。

2023-11-19 17:24:30 205

原创 Adversarial Attacks and Defenses on Graphs: A Review, A Tool and Empirical Studies(2020)

深度神经网络(DNN)在各种任务中都取得了显着的性能。然而,最近的研究表明,DNN 很容易被输入的小扰动所欺骗,称为对抗性攻击。作为 DNN 对图的扩展,图神经网络(GNN)已被证明继承了该漏洞。对手可以通过修改图结构(例如操纵一些边)来误导 GNN 给出错误的预测。这一漏洞引起了人们对在安全关键型应用中采用 GNN 的极大关注,并且近年来吸引了越来越多的研究关注。因此,有必要且及时地全面概述现有的图对抗攻击及其对策。在本次调查中,我们对现有的攻击和防御进行了分类,并回顾了相应的最先进方法。

2023-11-18 20:33:13 168

原创 Adversarial Attacks on Neural Networks for Graph Data(2018 ACM SIGKDD)

基于图的深度学习模型在节点分类任务上取得了较好的性能。尽管已经有了很多成果,但目前还没有研究它们对敌对攻击的鲁棒性。然而,在可能使用它们的领域,例如在网络上,对手很常见。图的深度学习模型容易被愚弄吗?在这项工作中,我们介绍了对属性图的对抗性攻击的第一个研究,特别关注利用图卷积思想的模型。除了测试时的攻击外,我们还解决了更具挑战性的中毒/致病攻击,这些攻击集中在机器学习模型的训练阶段。因此,在考虑实例之间的依赖关系的情况下,我们针对节点的特征和图结构产生对抗扰动。

2023-11-18 11:30:40 292

原创 A Comprehensive Survey on Graph Neural Networks(2020 Trans)

近年来,深度学习已经彻底改变了许多机器学习任务,从图像分类和视频处理到语音识别和自然语言理解。这些任务中的数据通常在欧几里得空间中表示。然而,越来越多的应用程序从非欧几里得域生成数据,并表示为对象之间具有复杂关系和相互依赖关系的图形。图数据的复杂性给现有的机器学习算法带来了巨大的挑战。最近,出现了许多关于扩展图数据深度学习方法的研究。在本次调查中,我们全面概述了数据挖掘和机器学习领域的图神经网络(GNN)。

2023-11-16 16:49:15 346

原创 A Gentle Introduction to Graph Neural Networks(2021 Distill)

GNN 近年来取得的成功为解决各种新问题创造了巨大的机会,图形是一种强大而丰富的结构化数据类型,其优势和挑战与图像和文本截然不同。在本文中,我们概述了研究人员在构建图神经网络方面取得的一些阶段性成果。我们介绍了在使用这些架构时必须做出的一些重要设计选择。

2023-11-14 22:19:14 151

原创 DeepFool: a simple and accurate method to fool deep neural networks(2016 CVPR)

最先进的深度神经网络已经在许多图像分类任务上取得了令人印象深刻的结果。然而,这些相同的架构已被证明对于图像的小而良好的扰动是不稳定的。尽管这种现象很重要,但尚未提出有效的方法来准确计算最先进的深度分类器对大规模数据集上的此类扰动的鲁棒性。在本文中,我们填补了这一空白,并提出了 DeepFool 算法来有效计算欺骗深度网络的扰动,从而可靠地量化这些分类器的鲁棒性。大量的实验结果表明,我们的方法在计算对抗性扰动和使分类器更加鲁棒的任务中优于最新的方法。

2023-11-13 20:06:30 266

原创 Adversarial Training Methods for Deep Learning: A Systematic Review(2022)

通过快速梯度符号法(FGSM)、投影梯度下降法(PGD)和其他攻击算法,深度神经网络暴露在对抗攻击的风险下。对抗性训练是用来防御对抗性攻击威胁的方法之一。它是一种训练模式,利用替代目标函数为对抗数据和干净数据提供模型泛化。在这篇系统综述中,我们特别关注对抗性训练作为提高机器学习模型的防御能力和鲁棒性的方法。具体来说,我们专注于通过对抗样本生成方法来获取对抗样本的可访问性。本系统综述的目的是调查最先进的对抗训练和稳健的优化方法,以确定该应用领域的研究差距。本综述的结果表明,对抗性训练方法和鲁棒优化存在局限性。

2023-11-12 17:58:38 1248

原创 Analysis of Explainers of Black Box Deep Neural Networks for Computer Vision: A Survey(2021)

深度学习是一种对大量或复杂数据进行推理的最先进技术。作为一种黑盒模型,由于其多层非线性结构,深度神经网络经常被批评为不透明且其预测无法被人类追踪。此外,这些模型从人工生成的数据集中学习,而这些数据集往往不能反映现实。基于深度神经网络的决策算法,可能会由于缺乏透明度而在不知不觉中促进偏见和不公平。因此,已经开发了几种所谓的解释器。解释器试图通过分析输入和输出之间的联系来深入了解机器学习黑匣子的内部结构。在本综述中,我们介绍了用于计算机视觉任务的深度神经网络解释系统的机制和特性。

2023-11-11 22:11:35 96

原创 Interactive Analysis of CNN Robustness(2021)

虽然卷积神经网络(CNN)作为图像相关任务的最先进模型被广泛采用,但它们的预测往往对小的输入扰动高度敏感,而人类视觉对此具有鲁棒性。本文介绍了 Pertuber,这是一个基于 Web 的应用程序,允许用户即时探索当 3D 输入场景受到交互式扰动时 CNN 激活和预测如何演变。Pertuber 提供了各种各样的场景修改,例如摄像机控制、照明和阴影效果、背景修改、对象变形以及对抗性攻击,以方便发现潜在的漏洞。可以直接比较微调的模型版本,以定性评估其稳健性。

2023-11-11 16:34:07 355

原创 A Survey on Neural Network Interpretability(2021 Trans)

随着深度神经网络的巨大成功,人们也越来越担心它们的黑盒性质。可解释性问题影响了人们对深度学习系统的信任。它还与许多伦理问题有关,例如算法歧视。此外,可解释性是深度网络成为其他研究领域强大工具的理想属性,例如,药物发现和基因组学。在本次调查中,我们对神经网络可解释性研究进行了全面回顾。我们首先澄清可解释性的定义,因为它已在许多不同的上下文中使用。然后,我们阐述了可解释性的重要性,并提出了一个新的分类方法,沿着三个维度组织:参与的类型(被动和主动解释方法),解释的类型,以及重点(从局部到全局的可解释性)。

2023-11-09 22:17:22 479

原创 Visual Interpretability for Deep Learning: a Survey(2018)

本文回顾了最近在理解神经网络表示以及学习具有可解释性/解耦的中间层表示的神经网络方面的研究。尽管深度神经网络在各种任务中表现出了优越的性能,但可解释性始终是深度神经网络的致命弱点。目前,深度神经网络获得了高辨别力,但代价是其黑箱表示的低可解释性。我们相信高模型可解释性可以帮助人们打破深度学习的几个瓶颈,例如,通过极少的注释学习、在语义层面上通过人机交流学习、以及在语义层面上调试网络表示。

2023-11-09 15:51:37 426

原创 It Is All About Data: A Survey on the Efects of Data on Adversarial Robustness(2023 ACM CS)

对抗性示例是攻击者故意设计的机器学习模型的输入,目的是迷惑模型,使其犯错误。这些例子对基于机器学习的系统的适用性构成了严重威胁,特别是在生命和安全关键领域。为了解决这个问题,对抗性鲁棒性领域研究了对抗性攻击背后的机制以及针对这些攻击的防御。这篇综述回顾了特定的文献子集,这些文献集中研究了在规避攻击下模型鲁棒性背景下训练数据的属性。首先总结了导致对抗性漏洞的数据的主要特性。然后讨论了通过增强数据表示和学习过程来提高对抗性鲁棒性的指导方针和技术,以及在给定特定数据的情况下估计鲁棒性保证的技术。

2023-11-08 17:18:25 220

原创 Explaining and harnessing adversarial examples(2014)

包括神经网络在内的一些机器学习模型始终会被对抗样本误导,这些对抗样本通过注入小但故意破坏的扰动而形成,这样的对抗样本会导致模型以高置信度输出错误答案。早期的工作尝试用非线性特征和过拟合去解释这种现象。相反,我们认为神经网络易受对抗性扰动影响的主要原因是它们的线性本质。基于这个假设,我们提出了简单快速的生成对抗样本的方法即快速梯度符号法(Fast Gradient Sign Method),使用这种方法为对抗训练提供示例,并减少了在MNIST数据集上训练的模型的测试集误差。对抗性例子可以解释为高维点积的属性。

2023-11-01 21:00:14 213

原创 One-to-N & N-to-One: Two Advanced Backdoor Attacks Against Deep Learning Models(2020 Trans)

近年来,深度学习模型已广泛应用于各种应用场景。深度神经网络(DNN)模型的训练过程非常耗时,需要大量的训练数据和大量的硬件开销。这些问题导致了外包训练程序、第三方提供的预训练模型或来自不受信任用户的大量训练数据。然而,最近的一些研究表明,通过将一些精心设计的后门实例注入训练集中,攻击者可以在 DNN 模型中创建隐藏的后门。这样,被攻击的模型在良性输入上仍然可以正常工作,但是当提交后门实例时,就会触发一些特定的异常行为。

2023-10-30 22:02:23 592

原创 Adversarial attacks and defenses on AI in medical imaging informatics: A survey(2022)

近年来,医学图像显着改善并促进了多种任务的诊断,包括肺部疾病分类、结节检测、脑肿瘤分割和身体器官识别。另一方面,机器学习(ML)技术,特别是深度学习网络(DNN)在各个领域的卓越性能导致了深度学习方法在医学图像分类和分割中的应用。由于涉及安全和重要问题,医疗保健系统被认为非常具有挑战性,其性能准确性非常重要。之前的研究表明,人们对医疗 DNN 及其易受对抗性攻击的脆弱性一直存在疑虑。尽管已经提出了各种防御方法,但医学深度学习方法的应用仍然存在担忧。

2023-10-26 20:41:30 284 3

原创 冻结ResNet50前几层并进行迁移学习(PyTorch)

【代码】冻结ResNet50前几层并进行迁移学习(PyTorch)

2023-10-26 09:42:37 384

原创 BadNets:基于数据投毒的模型后门攻击代码(Pytorch)以MNIST为例

【代码】BadNets:基于数据投毒的模型后门攻击代码(Pytorch)

2023-10-25 21:07:22 1841

原创 Poison Frogs! Targeted Clean-Label Poisoning Attacks on Neural Networks(2018)

数据中毒是一种对机器学习模型的攻击,攻击者在训练集中添加例子,以操纵模型在测试时的行为。本文探讨的是对神经网络的中毒攻击。提议的攻击使用“干净标签”,不需要攻击者对训练数据的标记有任何控制。这种攻击是有针对性的;它们控制分类器在特定测试实例上的行为,而不会降低分类器的整体性能。例如,攻击者可以将看似无害的图像(并正确标记)添加到人脸识别引擎的训练集中,并在测试时控制所选人员的身份。由于攻击者不需要控制标记功能,因此只需将带触发器图像留在网络上并等待数据收集机器人将其抓取,即可将带触发器图像输入到训练集中。

2023-10-25 10:26:17 291

原创 BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain(2017)

基于深度学习的技术已经在各种各样的识别和分类任务上实现了最先进的性能。然而,这些网络的计算训练通常是昂贵的,需要在许多GPU上进行数周的计算;因此,许多用户将训练过程外包给云计算,或者依赖于经过训练的模型,然后根据特定的任务对模型进行微调。在本文中,我们展示了外包训练引入了新的安全风险:对手可以创建一个恶意训练的网络(后门神经网络,或称为BadNet),该网络在用户的训练和验证样本上具有最先进的性能,但在攻击者选择的特定输入上表现糟糕。

2023-10-22 19:46:20 817

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除