Graph Mixture Density Networks 图混合密度网络

本文提出了一种名为图混合密度网络(GMDN)的方法,用于处理图结构数据的多模态输出分布。GMDN结合了混合密度网络(MDN)和深度图网络(DGN)的优点,能够在输入图条件下学习多峰输出分布。在随机流行病模拟和化学图回归任务中,GMDN展示了其在建模输出预测不确定性方面的优势,提供了一种有效处理结构相关现象的工具。
摘要由CSDN通过智能技术生成

是一类新的机器学习模型,可以适应条件为任意拓扑图的多模态输出分布。通过结合混合模型和图表示学习的思想,我们解决了一类更广泛的依赖结构化数据的具有挑战性的条件密度估计问题。我们在一个利用随机图进行随机流行病模拟的新基准应用程序上评估了我们的方法,显示了我们的方法在建模输出预测不确定性方面的有效性。图混合密度网络为研究具有非平凡条件输出分布的结构相关现象提供了的研究机会。

以输入x为条件近似目标值y的分布是有监督学习任务的核心。已知有监督方法可以近似给定输入的目标的预期条件分布,即,当目标分布为单峰且目标值的微小变化主要由随机噪声引起时,这是标准做法。然而,当回归问题的目标分布不是单峰分布时,大多数机器学习方法无法通过预测平均值来正确地表示它。多模态目标分布将多个可能的结果与给定的输入样本相关联,在这种情况下,通常讨论解决条件密度估计问题。为了解决这个问题,提出了混合密度网络(MDN)来近似任意复杂的条件目标分布。MDN是为向量性质的输入数据而设计的,但现实世界中的问题通常处理关系数据,其中结构会对可能的结果产生重大影响。

图的自适应处理,目标是通过不同的邻域聚合方案、图粗化和信息传播策略来推断给定任务的结构化样本的最佳表示。

主要贡献:提出了一种混合方法来处理图的机器学习方法中的多峰目标分布,称为图混合密度网络(GMDN)。该模型以输入图为条件,输出整个结构或其实体的多模态分布。给定一个可观测的输入图x,GMDN经过训练,通过最大似然估计来近似与目标随机变量y相关的(可能是多峰的)分布。可能性是密度估计任务需要优化的常用指标,它告诉我们模型与经验数据分布的拟合程度。像“标准”回归问题那样预测一个单一的产值来解决这类任务是不够的;因此,GMDN对输出仅限于单峰分布的图深度学习模型拓展了功能。

我们在本文介绍的一个新的基准应用程序上测试GMDN,该应用程序包括大型流行病学模拟,其中结构和多模态在确定流行病结果方面起着至关重要的作用。结果表明,GMDN产生了显著改善的可能性。然后,我们在两个真实世界的化学图回归任务中评估了我们的模型,以展示GMDN如何更好地模拟输出预测中的不确定性,即,该模型揭示了与给定的输入分子表示相关联的可能不止一个可容许的化学性质值。

训练网络来输出有条件的多模式分布,即具有一种或多种模式的分布。最早是专家混合(MoE)模型。MoE由许多神经网络组成,也被称为本地专家,每个神经网络被期望解决一个特定的子任务。此外,MoE使用门控网络来衡量当地专家对每项输入的贡献。通过这种方式,模型选择最有可能做出正确预测的专家。然后,总MoE输出是本地专家输出的加权组合。

混合密度网络(MDN)减少了训练MoE的计算负担,同时允许不同的专家(现在称为子网络)进行合作。MDN与MoE模型类似,但有细微的区别。首先,将输入转换为隐藏表示,在更简单的子网络之间共享,从而提高整体效率。其次,该表示用于产生门权重以及不同输出分布的参数。因此,初始转换应该将解决任务所需的所有信息编码到所述表示中。从图形结构数据中自动自适应提取关系信息是另一个长期存在的研究课题。之前,图核是处理结构信息的主要方法;尽管图核仍然有效且强大,但其缺点是计算成对图之间的相似性分数所需的计算成本。如今,一系列称为深度图网络(DGNs)的模型使高效处理任意拓扑图成为可能。DGN将图形的卷积层堆叠起来,这些卷积层聚集每个节点的相邻状态,以便在整个图形中传播信息。层数反映了传播的上下文信息量,与卷积神经网络的感受野非常相似。

基于以上原因,我们提出了图混合密度网络来结合MDN和DGN的优点。据我们所知,这是第一个可以学习任意输入图条件下的多模态输出分布的DGN。

Graph Mixture Density Networks

所考虑的任务是一个有监督的条件密度估计(CDE)问题,目标是学习条件分布是与数据集D中的输入图g关联的连续目标标签,假设目标分布为多峰分布,因此,由于上述平均效应,当前DGN无法很好地模拟目标分布。因此,我们借鉴了混合密度网络的思想,扩展了具有多模态输出能力的深图网络。

我们寻求一个能执行同构转换的DGN来获得节点表示以及和为1的混合权重,其中C是我们想要混合的单峰输出分布的数量。给定后,应用C个不同的子网络来分别产生C个输出分布的参数。最后,将C个单峰输出分布与混合权重Qg相结合,得到多峰输出分布。

 

DGN将输入图g的每个节点v转换为隐藏表示hv,该表示对该节点周围的结构信息进行编码。随后的变换ΦQ生成混合概率向量Qg,其组合了由C个子网络产生的C个不同分布。输入的第一个转换(DGN)在子网络中是共享的。

使用贝叶斯网络学习条件分布。圆形的白色(黑色)节点表示未观察到的(观察到的)随机变量,较大的正方形表示确定性输出。混合权重Qg被建模为具有C个可能状态的分类分布。数据集D中的每个图g,我们通过边缘化引入潜在变量Qg。将分两部计算:第一步将图信息编码为确定性节点状态hVg,并产生后验分布。第二部输出发射分布结果是一个以输入结构为条件的混合模型。

通过最大似然估计(MLE)来解决CDE问题。可能性,即P(y | g),是通常要最大化的量。它反映了从图g生成输出y的概率。给定假设空间H,我们寻求MLE假设:通过边缘化引入了潜变量Qg,其第i分量为Qig。利用深图网络对该方程的分布进行建模,这使得输入结构和图自同构不变性具有很大的灵活性。通过这种方式,我们能够近似概率,这些概率取决于可变数量的图节点和边。

深度图网络将输入图编码为节点表示

 在图预测中,表示hVg必须用另一个置换不变函数ψg进一步聚合

 该式其实就是ReadOut

可以使用Readout计算混合权重,如下所示其中σ是聚合向量分量上的softmax函数。

为了学习发射我们必须实现一个子网络Φi,其能输出所选分布的参数

例如,如果分布是多元高斯分布,我们有

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Graph Attention Networks(GAT)是一种用于神经网络的重要模型。GAT可以对任意大小和结构的进行监督学习和无监督学习。 GAT基于注意力机制,通过计算节点之间的注意力权重来对进行建模。与传统的神经网络不同之处在于,GAT在每个节点与其相邻节点之间引入了注意力权重。这样,每个节点可以根据其邻居节点的特征和注意力权重来更新自身特征表示。通过自适应地学习权重,GAT可以捕捉到不同节点之间的重要性和关联程度。 具体来说,GAT模型主要包括两个关键组件:多头注意力和特征变换。多头注意力允许模型在不同注意力机制下学习到多种节点表示。而特征变换则通过使用多个线性变换层来改变节点特征的维度。 在GAT模型中,每个节点都会与其邻居节点进行信息交互和特征更新。节点会计算与其邻居节点的相似度得分,然后通过softmax函数进行归一化,以得到注意力权重。最后,节点会将邻居节点的特征与对应的注意力权重相乘并求和,从而得到更新后的特征表示。 GAT模型的优点是能够解决不同节点之间的连接关系和重要性差异的建模问题。由于引入了注意力机制,GAT能够对相邻节点的特征进行自适应的加权处理,从而更好地捕捉到有意义的模式和关联。 总之,Graph Attention Networks是一种基于注意力机制的神经网络模型,能够对任意大小和结构的进行监督学习和无监督学习。它通过自适应地计算节点之间的注意力权重,实现了对中节点特征的有效建模。 GAT模型在社交网络、推荐系统和生物信息学等领域具有广泛的应用前景。 ### 回答2: Graph Attention Networks(GAT)是一种用于处理数据的深度学习模型。传统的神经网络模型使用了节点邻居的平均值来更新节点的表示,这种方法忽略了不同节点在中的重要性和关联度。而GAT模型引入了注意力机制,可以在节点之间动态地学习权重,从而更好地捕捉中节点之间的关系。 GAT模型的核心思想是在每个节点层使用自注意力机制来计算节点之间的注意力权重。具体来说,对于每个节点,GAT模型通过计算与之相邻的节点之间的相似度得到一个归一化的注意力权重。这个相似度可以通过神经网络模块学习得到,其中包括一个共享的权重矩阵。然后,通过将相邻节点的表示与对应的注意力权重相乘并求和,得到一个新的节点表示。这个过程可以通过多头注意力机制来并行计算,从而更好地捕捉节点的重要性和关联度。 GAT模型具有许多优点。首先,GAT模型可以自动学习节点之间的关系,并且可以根据节点之间的重要性分配不同的权重。其次,GAT模型具有较强的可解释性,可以通过注意力权重的可视化来解释模型的决策。此外,GAT模型还可以处理不同类型的数据,包括社交网络、生物网络和推荐系统等。最后,GAT模型在一些数据上表现出了较好的性能,在节点分类、链接预测和分类等任务中取得了良好的结果。 总之,Graph Attention Networks是一种用于处理数据的深度学习模型,通过引入注意力机制,可以动态地学习节点之间的权重,从而更好地捕捉中节点之间的关系。该模型具有较好的可解释性和适用性,在许多数据上取得了较好的性能。 ### 回答3: Graph Attention Networks(GAT)是一种基于神经网络的模型。GAT的目标是在数据上进行节点分类或边预测等任务。与传统的神经网络不同,GAT在节点之间引入了注意力机制,以便在中自动学习节点之间的关系。 GAT的核心思想是为每个节点分配不同的注意力权重,以更好地聚焦于重要的邻居节点。这种分配是通过学习每对节点间的注意力系数来实现的,而不是像传统方法一样使用固定的加权平均。 具体地说,GAT中的每个节点都有自己的特征向量表示,在计算节点之间的注意力权重时,GAT通过将节点对的特征向量与学习到的注意力权重相乘来评估节点之间的关系强度。然后,它将这些关系强度进行归一化处理,以产生每个节点对的注意力系数。最后,通过将注意力系数与邻居节点的特征向量相乘并进行加权求和,可以得到每个节点的输出特征。 与其他神经网络方法相比,GAT具有以下优点:1)它能够自动学习节点之间的关系,而不需要手动指定的拓扑结构;2)它能够根据节点之间的重要性自适应地分配注意力权重;3)它具有较强的可解释性,可以通过分析注意力系数来理解节点之间的关系。 GAT已经在许多数据任务上取得了很好的效果,如社交网络分析、推荐系统和药物发现等。由于其良好的性能和可解释性,GAT在学术界和工业界都得到了广泛的应用,并且也有很多相关的改进和扩展方法出现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值