- 博客(13)
- 收藏
- 关注
原创 WWW2020《Adversarial Attacks on Graph Neural Networks via Node Injections:分层增强学习方法》(NIPA)论文详解
论文链接:https://faculty.ist.psu.edu/vhonavar/Papers/www20.pdfpoisoning attack1 Abstract and Introduction本文考虑了一种针对图数据的节点注入中毒攻击(poisoning attack)的形式。对节点注入攻击的关键步骤进行建模,例如,通过马尔可夫决策过程(MDP)在注入的对抗节点和其他节点之间建立链接、选择注入节点的标签等。本文提出了一种针对节点注入中毒攻击(Node Injection Poisoni
2022-04-28 21:54:53 1671 1
原创 2022 《Black-box Node Injection Attack for Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2202.09389.pdfevasion attack1 Abstract & Introduction本文将节点注入攻击建模为一个马尔可夫决策过程,并提出了一种基于 advantage actor critic 的图增强学习框架 GA2C,以生成注入节点的真实特征,并将它们无缝地合并到具有相同拓扑特征的原始图中。...
2022-04-17 21:48:48 2070 2
原创 KDD2021《TDGIA: Effective Injection Attacks on Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2106.06663.pdfevasion attack1&2 Abstract & Introduction本文作者分析了图注入攻击(Graph Injection Attack,GIA)设置下的 GNN 网络的拓扑脆弱性(topological vulnerability),在此基础上提出了拓扑缺陷图注入攻击(Topological Defective Graph Injection Attack, TDGIA)以进行有效
2022-04-09 21:09:43 1003
原创 ICLR2022《Understanding and Improving Graph Injection Attack by Promoting Unnoticeability》
原文链接:https://arxiv.org/pdf/2202.08057.pdfevasion attack1 Abstract and Introduction现有的图对抗攻击主要有两种,图注入攻击(Graph Injection Attack,GIA)和图修改攻击(Graph Modification Attack,GMA);前者是一种更实际的攻击场景,它通过往图中注入恶意节点来实现攻击,后者通过修改原图中的节点或边来实现攻击。虽然 GIA 取得了比较令人满意的结果,但是我们并不知道这种.
2022-04-03 21:19:21 1630 3
原创 CIKM2021《Single Node Injection Attack against Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2108.13049.pdfevasion attack1 Abstract and Introduction图神经网络节点注入攻击是一种新兴而实用的攻击场景,攻击者通过注入恶意节点而不是修改原始节点或边来影响图神经网络的性能。本文关注的是一个非常有限的单节点注入 evasion 攻击场景,即攻击者在测试阶段只被允许注入一个单节点来伤害GNN的性能。网络结构的离散性以及网络结构与节点特征之间的耦合效应给这种极其有限的场景带来了极大的挑战。本文
2022-03-28 20:51:00 3935 3
原创 KDD2021《Attacking Graph Convolutional Networks via Rewiring》论文详解
原文链接:https://arxiv.org/pdf/1906.03750.pdf之前对图神经网络的攻击都是通过添加或删除一些边来产生扰动,即使被修改的边数量很少,也可能会被注意到。本文提出一个图的重接线(rewiring)操作,它对图的影响比添加/删除边的方式更不明显。然后,使用增强学习基于所提出的重接线操作来学习攻击策略。为了保证被攻击图与原始图之间的差异“不明显”,攻击算法可以采取的动作(添加/删除边)的数量通常受到预算的限制。然而,即使这个预算很小,添加或删除边仍然可以对图结构做出“显著
2022-03-27 21:07:15 1481
原创 KDD2018《Adversarial Attacks on Neural Networks for Graph Data》 论文详解
论文链接:https://arxiv.org/pdf/1805.07984.pdfAbstract本文介绍了第一个在属性图上进行对抗攻击的研究,特别关注利用图卷积的思想模型。除了在测试阶段进行攻击,本文进行了更具挑战的poisoning attack(聚焦于机器学习模型的训练阶段)类别。在考虑实例间依赖关系的情况下,针对节点特征和图结构进行对抗扰动(adversarial perturbation)。通过保证重要的数据特征保证扰动是不可见的(unnoticeable)。为了解决底层的离散域(disc
2022-03-26 10:35:26 4093
原创 Power law and Power law distribution(幂律和幂律分布)
原文:《Power-law distribution in empirical data》1. Introduction有些分布可以很好的描述,比如成年男性的身高,某物体的重量等,它们可以用典型值可平均值来进行描述。但并不是所有的分布都服从该模型。在这些分布中 power law 多年来因其数学性质(有时会导致令人惊讶的物理结果)以及在各种自然和人为现象中出现而受到特别关注。例如,城市人口、地震强度和停电的规模都被认为具有幂律分布。诸如此类的数量不能很好地用它们的典型值或平均值来描述。从数学上讲
2022-03-24 18:54:49 5582
原创 解决torch.cuda.is_available()=false的方法
本人遇到的问题经多方查询发现是由于cuda版本和pytorch版本不一致引起的。因此只需重新下载cuda所对应版本的pytorch就可以正常使用了。
2022-03-13 21:12:41 1755
原创 Anaconda Navigator Error 问题解决
Anaconda Navigator Error 问题解决将C盘的——>用户——>用户名(自己的)下的.conda和.condarc文件删除就可以正常打开Anaconda Navigator。
2022-03-09 14:40:44 739
原创 二叉树的先序、中序、后序(递归/非递归),层次遍历
树的链式存储结构:typedef struct BiTNode { Elemtype data; struct BiTNode *lchild, *rchild;}BiTNode, *BiTree;先序遍历(递归)void PreOrder(BiTNode T) { if (T != NULL) { visit(T); PreOrder(T->lchild); PreOrder(T->rchild); }}先序遍历(非递归)算法思想:从根结点开始,依次访问结
2021-01-26 16:28:45 226
原创 手算KMP算法nextval数组
上一篇文章介绍了手算KMP算法nextl数组。接下来就来介绍如何通过next数组求得nextval数组。通过上篇得到的next数组进行讲解.第一步:nextval数组的第一位必定为0;第二位模式串中元素的值如果与第一位相同则为0,不同为1。下标123456789模式串abaabcabanext011223123nextval01第二步:第 3 个元素的next值为 1 ,于是将其与下标为 1
2020-07-24 22:47:23 2408
原创 手算KMP算法next数组
求解方法:next数组中第一位写0,第二位写1 。求解后面每个元素的next值时,将该元素前一个元素next值所对应下标的元素进行比较,如果相同,则将前一元素next值+1作为当前元素的next值;否则,则将前一元素next值所对应下标的元素作为新元素重复上述操作;如果找到则将前面元素next值+1作为待求元素的next值;如果找到最前面都找不到相同元素,则将待求元素的next值赋为1。实例如下:设模式串为 abaabcaba第一步:将第 1 个元素和第 2 个元素的next值设置为 0 和 1 。
2020-07-20 22:49:25 3535 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人