【论文推荐】GNNet 2023论文汇总

GNNet 2023 (2nd on Graph Neural Networking Workshop)是CoNEXT 2023会议的一个以GNN为主题的研讨会,一共发表了7篇论文,其中3篇论文提供了开源代码和数据,希望对相关领域的小伙伴有所帮助。获取这些论文的全文可以在公众号回复20231214,仅供大家交流学习。欢迎转发和关注!

号外:我们有开源代码交流群啦,欢迎感兴趣的老师和同学在公众号回复开源代码交流群。

号外:我们开始招募内容编辑志愿者了,欢迎对文献整理、推文创作、科研分享与合作感兴趣的小朋友们在公众号回复志愿者,也欢迎有期刊和会议征稿公益宣传需求的老师们与我联系沟通。

[1] Active Few-shot Learning For RouteNet-Fermi
作者:Fu X, Shao M, Li S, et al.
摘要:基于机器学习的网络建模需要一个紧凑的训练数据集,其中包含涵盖不同拥塞级别的多样化网络拓扑和配置。我们在有限数量的训练样本和有限数量的每个样本拓扑节点的约束下,将使用多阶段消息传递图神经网络的网络延迟建模问题形式化为几次学习问题。为了解决这个问题,我们提出了一种主动学习算法,该算法有选择地随机化不随节点数量变化的初始特征,然后使用基于池的不确定性采样来选择基于香农熵的近似最优网络拓扑。该近似可以在理论上得到证明并通过实验结果得到证实。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630174

[2] Atom: Neural Traffic Compression with Spatio-Temporal Graph Neural Networks
作者:Almasan P, Rusek K, Xiao S, et al.
摘要:存储网络流量数据是高效网络管理的关键;然而,由于数据传输速率、流量和连接设备不断增加,它变得更具挑战性和成本更高。在本文中,我们探索使用神经架构进行网络流量压缩。具体来说,我们考虑网络拓扑中具有多个测量点的网络场景。此类测量可以解释为多个时间序列,这些时间序列表现出由网络拓扑、路由或用户行为引起的空间和时间相关性。我们提出了Atom,一种神经流量压缩方法,它利用网络流量中存在的空间和时间相关性。Atom实现了定制的时空图神经网络设计,可以同时有效地利用两种类型的相关性。实验结果表明,Atom在三个真实网络上的压缩率比GZIP的压缩率高出50%–65%。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630170
数据和代码:
https://github.com/BNN-UPC/Atom_Neural_Traffic_Compression

[3] Detecting Contextual Network Anomalies with Graph Neural Networks
作者:Latif H, Suárez-Varela J, Cabellos-Aparicio A, et al.
摘要:由于当今网络中存在大量流量,并且随着时间的推移流量具有高度动态性,因此检测网络流量异常是一项复杂的任务。在本文中,我们提出使用图神经网络(GNN)进行网络流量异常检测。我们将该问题表述为网络流量测量的上下文异常检测,并提出了一种基于GNN的定制解决方案,用于检测起点-目的地流的流量异常。在我们的评估中,我们使用来自Abilene(6个月)的真实数据,并与同一任务的其他广泛使用的方法(PCA、EWMA、RNN)进行比较。结果表明,我们的解决方案检测到的异常与基线捕获的异常非常互补(PCA的重叠异常最多为36.33%)。此外,我们手动检查我们的方法检测到的异常,发现其中很大一部分可以由网络专家进行视觉验证(64%具有高置信度,18%具有中等置信度,18%正常流量)。最后,我们通过两个颇具代表性的典型案例来分析异常的特征。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630171

[4] Exploring Temporal GNN Embeddings for Darknet Traffic Analysis
作者:Gioacchini L, Cavallo A, Mellia M, et al.
摘要:网络流量分析(NTA)是表征网络实体和发现可疑流量模式的基本工具,从而增强我们对网络操作和安全性的理解。与其他领域的成功做法一样,由于标记数据的稀缺,基于深度学习(DL)的NTA解决方案已开始采用两阶段方法;(i)自我监督的上游任务可以生成紧凑且信息丰富的网络数据表示(嵌入),而无需地面事实;(ii)嵌入作为下游任务(监督或无监督)专用模型的输入——例如流量分类或异常检测。由于图是网络流量的直观表示,因此在这项工作中,我们探索了时态图神经网络(tGNN)在以自我监督的方式生成中间嵌入方面的潜力。我们通过解决暗网流量场景中的主机分类问题来评估此类嵌入的质量。我们评估了长达一个月的流量跟踪期间的静态和时间GNN。我们发现,在模型中包含节点特征和时间方面,再加上增量训练方法,可以准确描述主机活动动态,并能够创建2阶段NTA管道。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630175
数据和代码:
https://github.com/SmartData-Polito/gnn-for-darknet.git

[5] Optimizing Honeypot Placement Strategies with Graph Neural Networks for Enhanced Resilience via Cyber Deception
作者:Osman M, Nadeem T, Hemida A, et al.
摘要:在不断发展的网络安全领域,战略蜜罐放置对于增强网络欺骗至关重要。本文介绍了一种利用图神经网络(GNN)来优化蜜罐放置的新颖方法,超越了传统的博弈论方法。由于复杂动态环境中的“维数灾难”,传统技术常常面临计算效率低下的问题。我们的GNN模型通过对图注意力(GAT)和图Transformer模型等架构的广泛探索,展示了卓越的性能。通过集成博弈论边缘特征,该模型实现了高达92.34%的测试准确率。此外,我们的GNN解决方案的推理速度比传统方法提高了139倍,增强了其效率和彻底改变网络安全策略的潜力。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630169

[6] Predicting Latency Quantiles using Network Calculus-assisted GNNs
作者:Helm M, Carle G.
摘要:网络数字孪生通常依赖图神经网络(GNN)作为功能模型。他们通常预测网络性能指标,例如延迟。大多数方法都具有以下限制之一:它们使用模拟数据、预测平均值或不利用正式方法结果作为输入。我们引入了一种方法:(I)依赖从硬件测试台获得的数据,增加真实性,(II)除了均值之外还预测分位数,增加灵活性和适用性,(III)使用网络演算的形式方法来获取输入特征,提高预测精度。我们证明,使用简单的GNN架构可以在不同分位数预测硬件测试台中的延迟,中值相对误差在8%到29%之间。此外,我们表明网络微积分边界对于预测更高的分位数特别有用,并且它们主要纠正较大的预测误差。
链接:
https://dl.acm.org/doi/abs/10.1145/3630049.3630173
数据和代码:
https://gitlab.lrz.de/gnnet2023/quantile-nc-prediction

[7] Topological Network Traffic Compression
作者:Guillermo Bernárdez, etc.
摘要:在新兴应用和技术进步的推动下,计算机网络流量激增,迫切需要有效的技术来存储和分析大量流量痕迹。本文介绍了一种新方法来解决这一挑战,即采用拓扑深度学习(TDL)进行有损流量压缩。与依赖于图表示定义的二元交互和局部邻域的图神经网络(GNN)不同,TDL方法可以自然地适应任意网络元素之间的高阶关系,从而提供超出图域的更具表现力的表示。特别是,我们提出的流量压缩框架旨在检测流量数据中的高阶相关结构,并采用拓扑神经网络在这些集合中生成压缩表示。这项工作评估了这种方法是否可以通过更好地利用多数据点交互来超越传统的机器学习(ML)压缩架构,从而潜在地捕获远程网络元素之间的相关性。我们在两个真实世界的网络数据集上评估我们的方法,并将其与基于GNN的架构和为此任务设计的多层感知器自动编码器进行比较。结果表明有了显着的改进。ML基线——在所有场景中重建误差从30%提高到90%——将我们的拓扑框架建立为有损神经流量压缩的强大基线。
链接:
https://dl.acm.org/doi/10.1145/3630049.3630172

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值