网络安全论文学习
文章平均质量分 91
精致又勤奋的码农
网络安全小白
展开
-
【论文学习】Adversarial Examples on Graph Data: Deep Insights into Attack and Defense论文学习
摘要类似GCN这样的图深度学习模型近几年咋一些图数据任务上取得了很好的效果。与其他的深度学习模型类似,图深度学习模型通常也会遭受到对抗攻击。但是,跟非图数据相比,图数据中的离散特征,图连接以及对于扰动的不可感知的不同定义给图对抗攻击带来了许多挑战。在这篇文章中,作者提出了攻击和防御的方法。在攻击的时候,作者发现图数据的这些离散特性可以通过引入连续梯度来解决。这个连续梯度可以反映出对图中的某一条边或者某一个特征做干扰带来的影响(注意,这里的特征也必须是离散的)。在做防御的时候,作者发现通过对抗攻击得到的图跟原创 2022-01-05 16:41:56 · 3363 阅读 · 8 评论 -
【论文学习】graph backdoor论文学习
摘要本文提出了GTA攻击方法,这是在GNN上的第一个后门攻击(backdoor attack)。GTA有如下几个重要的方面:1)graph-oriented:将trigger定义成一个子图,这个子图包括了两个部分,拓扑结构和结点的特征信息。2)input-tailored:对每一个图都会得到一个trigger,通过对攻击有效性(attack effectiveness)和攻击规避性(保证正常图还是被正确分类,注入了trigger的图被错误分类)都进行优化得到trigger。3)下游模型不可知:攻击者不需要原创 2021-08-30 16:52:08 · 1542 阅读 · 0 评论 -
图神经网络对抗攻击的综述
摘要原创 2021-08-25 19:52:00 · 2961 阅读 · 0 评论 -
【论文学习】TDGIA: Effective Injection Attacks on Graph Neural Networks论文学习
摘要在这篇文章中,作者研究了图上的一种攻击,GIA图注入攻击。这篇文章的攻击方法并没有修改原图的链路结构(删除或者是添加边)或者是结点属性,而是直接往图上注入(inject)对抗结点。作者提出了拓扑缺陷图注入攻击(TDGIA),首先使用拓扑缺陷边选择策略来选择和注入结点有联系的原始图上的结点。然后使用平滑特征优化方法来获取注入结点的特征。在大型数据集上的实验表明,TDGIA的表现要优于已有的攻击baseline的结果。作者拿自己的攻击方法参加了KDD-CUP2020的比赛,发现使用了TDGIA后GNN模型原创 2021-08-25 14:09:49 · 1315 阅读 · 4 评论 -
【论文学习】图神经网络对抗攻击顶会论文汇总(2018-2021年)
图对抗攻击在信贷领域,结合贷款人的金钱交易来评估他的信用情况,人与人的交易记录就是用图来表示。对于图来说,特征往往是离散的(例如图的结构特征,一条边要么存在,要么不存在)。对于图来说,很难定义图上的微小扰动。在图像对抗攻击领域,通常是在训练好的模型上输入扰动图片使其预测错误evasion attack,但是在图对抗攻击领域是让扰动后的图上重训练的模型性能变差,这种攻击被称为投毒攻击。图卷积网络图卷积网络被用来解决半监督结点分类问题。经典的论文(1)Adversarial Attacks on原创 2021-08-19 16:14:22 · 6608 阅读 · 3 评论 -
【论文学习】Heterogeneous Graph Matching Networks for Unknown Malware Detection学习
摘要恶意软件攻击已经开始渗透到很多的信息系统中。传统的基于签名的恶意检测算法只能检测到已知在库中的恶意软件,并且可以做诸如二进制混淆的规避攻击,但是基于行为的方法在很大程度上依赖于恶意的训练样本,并且会有很高的训练成本。为了解决现有技术的局限性,作者提出了MatchGNet,一种异质图匹配网络可以学习图表示和相似性度量。作者还提出了一种对于模型的系统性评估手段,可以以较小的FP值来检测恶意攻击。MatchGNet比现有的SOA算法都要好,在保证FN值为0的同时将FP值降低了50%。Introductio原创 2021-07-05 10:55:35 · 740 阅读 · 0 评论 -
【论文学习】(二)Hybrid Batch Attacks: Finding Black-box Adversarial Examples with Limited Queries论文学习
论文脉络Hybrid Attack:Transfer Attack(黑盒攻击的一种,白盒攻击应用于本地模型)+Optimization Attack(黑盒攻击的一种,估计梯度并且基于梯度攻击)Transfer Attack只需要对于目标模型做一次查询,但是攻击成功率低,transfer loss会比较大,尤其是对于有目标攻击的成功率更低。Transfer Attack又进一步分成两种,一种是可以获得有相同数据分布的预训练模型,就不需要再训练了;一种是替换攻击,可以获得目标模型的训练数据,但是需要对目标模原创 2021-05-16 17:10:06 · 408 阅读 · 0 评论 -
【论文学习】Hybrid Batch Attacks: Finding Black-box Adversarial Examples with Limited Queries论文学习
摘要这篇文章研究的场景是针对只对目标模型有API接口,但是接触不到模型内部信息的黑盒攻击,并且对于API的每次查询都是很昂贵的。之前对于黑盒的对抗攻击包括以下两种:1)使用白盒攻击的手段来转换,寻找对抗样本。2)使用基于优化optimization的攻击。作者提出了hybrid attack,可以同时结合这两种策略,在本地模型中寻找候选的对抗样本作为...原创 2021-05-15 17:45:52 · 830 阅读 · 3 评论 -
【论文学习】SPARK: Spatial-aware Online Incremental AttackAgainst Visual Tracking论文学习
摘要对抗攻击在图像,音频,自然语言,patch以及像素级别的分类任务中都得到了很多的应用。但是对于视频目标追踪任务的对抗攻击研究还是比较少。这篇文章通过在线产生人眼很难感知的对抗扰动,从而使得追踪器可以产生不正确的追踪轨迹(无目标攻击UA),或者是产生特定的追踪轨迹(有目标攻击TA)。在最后的时候,作者通过适应FGSM,BIM和C&W算法从而提出了一个spatial-aware的攻击方法,并且全面的分析了这些攻击方法的表现。作者认为在线目标追踪有两个新的挑战:1)很难产生可以在连续的视频帧之间进行原创 2021-04-10 15:58:19 · 600 阅读 · 1 评论 -
【论文学习】Efficient Adversarial Attacks for Visual Object Tracking论文学习
摘要现有的SOA目标追踪器,例如Siamese系列追踪器算法都是使用DNN来获得高准确率。现在很多人都在研究视觉追踪模型的鲁棒性。这篇文章中分析了基于Siamese网络的目标追踪器的弱点,并且在视觉目标追踪领域生成对抗样本。这篇文章中提出了一个FAN(Fast Attack Network),从而使用漂移损失(drift loss)和嵌入特征损失(mbeddedfeature loss)来攻击Siamese追踪器。根据FAN这个名字来看,这篇文章主要是侧重于提高训练对抗样本的速度。FAN可以在10ms的时原创 2021-04-03 21:53:27 · 501 阅读 · 0 评论 -
【论文学习】Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises论文学习
一 摘要通过研究对抗攻击可以更好的了解神经网络,并且提高深度学习模型的鲁棒性。在这篇论文中,提出了一个cooling-shrinking攻击,可以攻击最新的SiamRPN网络。通过本文设计的对抗扰动,可以在冷却目标所在位置的热力图的同时,收缩预测的边界框,让被追踪物体无法被追踪。本文攻击模型可以在OTB100,VOT2018以及LaSOT这几个数据集上取得很好的效果。并且,本文的方法有着很好的迁移性,也可以很好的欺骗DaSiamRPN,DaSiamRPN-UpdateNet和DiMP。二 知识点补充1原创 2021-04-02 20:41:07 · 734 阅读 · 0 评论 -
【论文学习】Robust Tracking against Adversarial Attacks论文学习
知识点补充OTB中的评价指标( 1)one-pass evaluation(OPE)这是目标追踪领域常用的评估方式,只给第一帧ground truth没有随机性的算法只跑一遍就可以。(2)precision plot追踪算法估计的目标位置(bounding box)的中心点与人工标注(ground-truth)的目标的中心点,这两者的距离小于给定阈值的视频帧的百分比。不同的阈值,得到的百分比不一样,因此可以获得一条曲线。该评估方法的缺点:无法反映目标物体大小与尺度的变化(所以用的比较少)(3原创 2021-03-20 17:28:27 · 908 阅读 · 4 评论 -
【论文学习】Robust Tracking against Adversarial Attacks论文学习
摘要对抗攻击很容易对CNN网络造成影响,但是很少有人关注于对这种攻击的防御。现有的很多攻击和防御手段都是关注于单个的图片。这篇文章主要是关注于对视频序列产生对抗样本,并且针对这种对抗攻击来提高追踪的鲁棒性。一方面,本文将暂时的扰动加入到原始的视频序列中,作为对抗样本来攻击影响追踪的结果;另一方面,作者也采用防御手段来消除这种攻击的影响。作者将提出的攻击和防御手段应用在最先进的追踪算法上。实验结果表明,在benchmark的数据集上有很好的表现,防御手段不仅可以抵御攻击,还可以在追踪器没有被攻击的时候也取得原创 2021-01-11 15:55:44 · 521 阅读 · 0 评论 -
Phantom of the ADAS: Phantom Attacks on Driver-Assistance Systems论文相关问题思考
1、攻击为什么可以成功?(1)这篇论文的攻击之所以可以奏效,是因为自动驾驶系统在很大程度上只依赖于相机来检测周边障碍物,基于这种前提,只要攻击了相机,就可以影响车辆对周边的判断。所以作者提出来的防御模型就是,加一个验证模块来验证相机的检测结果。(2)计算机视觉算法无论是在训练还是测试的时候,主要关注的都是物体的几何信息,但是并不会去关心context信息,以及去关心这个物体是不是真实的。而且训练出来的模型也并不知道一个幻影是长啥样的。这里我的理解是,在训练的时候,并没有考虑到这部分幻影图片,没有把类似幻原创 2020-11-14 16:15:28 · 210 阅读 · 1 评论 -
Phantom of the ADAS: Phantom Attacks on Driver-Assistance Systems论文学习
写在前面这篇论文也太长了吧吧,要看疯了呀。看得我心力交瘁。师兄说安全方面的论文一般都是要长一些,我的内心,这已经不是长一些了吧。读这篇论文真的是太辛苦了。摘要车载通信系统的缺乏使得ADAS高级驾驶辅助系统,全自动驾驶车辆以及半自动驾驶车辆的自动驾驶仪不能很好的validate验证对于车辆周围的真实环境的感知结果,这个缺陷就很容易被利用从而被别人攻击。但是要应用这些攻击就会需要一些成本cost(比如攻击者的身份可能会暴露),所以现在这种类型的攻击还没有在现实生活中实现过。(这里的意思是不是通过通信电子的原创 2020-11-08 17:07:59 · 824 阅读 · 0 评论 -
【论文复现】https://github.com/veralauee/DPatch代码详解(非常详细,附相关pytorch语法和知识点补充)
写在前面最近需要在DPatch源码的基础上,做一些修改,改成自己的网络,生成自己的对抗样本。为了方便修改,需要花点时间将DPatch的源码啃明白。所以就有了这篇博客,记录源码学习的过程,方便后面查看修改。为了方便查看,我将自己对于源码的理解直接作为注释添加在源代码中。darknet.py文件(1)def _make_layers(in_channels, net_cfg)#这个文件用来定义网络中的每一层,其中的in_channels是每一层的输入通道数,out_channels是输出通道数def原创 2020-10-10 16:59:03 · 2210 阅读 · 13 评论 -
【论文学习】How To Backdoor Federated Learning论文学习
写在前面最近每周都在参加组内的论文学习会议,每周都有组内的师兄师姐分享论文。我是一枚刚接触网络安全的小白,再加上我正好有很多空闲时间,所以会将师兄师姐们分享的论文阅读一下,学习一下。这周学习的是How To Backdoor Federated Learning这篇论文。论文介绍联邦学习(Federated learning)是一种在保证各个参与方不需要相互交换训练要用的隐私数据的前提下,构...原创 2020-08-29 16:13:04 · 677 阅读 · 0 评论 -
【论文学习】One-shot Adversarial Attacks on Visual Tracking with Dual Attention论文学习
摘要在计算机视觉领域中,几乎所有的对抗攻击都是事先知道每个物体的实际类别的,这样就可以通过制造微扰,从而实现离线训练。但是对于视觉物体追踪(visualobject tracking)而言,被追踪的物体的类别事先是不知道的。然而,追踪算法本身是存在被攻击的潜在风险的,这样就可以用来欺骗监控系统。为了对潜在的危险特征产生更多的关注(attention),我们研究对于追踪算法的对抗攻击。这篇文章提出了一个典型的one-shot类型的对抗攻击方法来对于无模型的简单物体追踪算法(free-model singl原创 2020-06-30 21:01:01 · 1475 阅读 · 5 评论 -
【论文学习】Deep Learning for Unsupervised Insider ThreatDetection in Structured Cybersecurity DataStreams
Deep Learning for Unsupervised Insider Threat Detection in Structured Cybersecurity Data Streams论文学习数据集:采用了CERT Insider Threat Dataset v6.2数据集。模拟了恶意内部人实施的系统破坏,信息窃取和内部欺诈三类主要攻击行为和大量的正常背景数据。涉及多个维度的用户行...原创 2019-12-04 10:24:41 · 1919 阅读 · 4 评论 -
【论文学习】Fooling Detection Alone is Not Enough--Adversarial Attack against Multiple Object Tracking论文学习
写在前面最近参与导师的一个项目,研究内容是对百度无人驾驶项目Apollo进行攻击。目前在看项目的感知模块的camera部分实现,同时也在看相关的对于图像,视觉,检测,追踪的攻击手段,看了一些论文和博客,分享一下Fooling Detection Alone is Not Enough–Adversarial Attack against Multiple Object Tracking这篇论文...原创 2020-03-11 11:45:35 · 793 阅读 · 1 评论