《Decentralized Federated Graph Neural Networks》论文阅读笔记
发表在2021年的IJCAI
- 背景
GNN广泛用来分析图结构数据,然而,在用户端有隐私,规则限制,商业竞争等。因此,我们能看到的图结构数据是分布式的,这也就限制了GNN的应用。 - 已有方法
已有一些关于中心化联邦图神经网络的研究,中心服务器协调各个参与者从图结构数据中训练的GNN模型。 - 存在问题
中心服务器需要进行模型聚合操作,在很多跨领域场景下,这种中心服务器是不被接受的。因此,去中心化的学习模型在真实场景下还是很关键的。 - 本文
提出一种去中心化的联邦图神经网络D-FedGNN,允许多个参与者训练一个图神经网络模型,且不需要中心服务器。具体的,使用去中心化的并行梯度下降是算法DP-SGD,在点对点的网络结构中训练图神经网络模型。为了保护模型聚合过程中的隐私,D-FedGNN引入Diffie-Hellman key exchange方法在客户端进行安全模型聚合。
- 具体
5.1 初始化
每个客户端有自己的子图,G = (V,E),在初始阶段,客户端初始化训练模型参数,然后将训练好的模型参数发送给其他客户端,最终,调用Diffie-Hellman密钥交换协议,与j客户建立共享密钥。
5.2 本地模型更新: