论文笔记:EGAT: Edge Aggregated Graph Attention Networks and Transfer Learning Improve Protein-Protein In

一、摘要

图神经网络(GNN)已成为结构信息编码的一种有效工具,尽管基于GNN的体系结构已被应用于配对结合位点预测,但他没有被用来预测单个蛋白质的结合位点。此外,与可能不适当编码远程相互作用的残基特异性信息的方法不同,当它们学习所有残基的单一全局特征表示时gnn有潜力有效编码包含任何特定残基的全局特征,通过学习特定残基及其近邻的合适函数。在各种基于GNN的网络结构中,图注意网络(GAT)被证明是解决蛋白质相互作用网络相关问题的有效方法,但是最初提出的GAT体系结构并没有考虑边缘的特征,无论是在聚集过程中,还是在计算注意力分数时。因此,GAT缺乏利用可能已经编码在边缘特征中的丰富结构信息的能力,与GAT不同的是,EGAT被期望在聚合和注意力分数计算阶段有效地利用编码在边缘特征中的结构信息。

二、方法

(一)、蛋白质图的表示

本文提出的EGAT模型是一种基于图神经网络的结构,我们将数据集中每个蛋白P的三维结构表示为有向k近邻图G。图G中的节点集合V (G)是蛋白质P的氨基酸残基集合。设Ni是节点(残差)i的邻域,它由k个最近的邻域组成(即|Ni| = k), i是这个邻域的中心。每个节点i∈V (G)通过有向边连接到Ni中的每个节点。这些i的邻居是通过对所有其他节点根据它们到i的距离排序来选择的,然后取最近的k个节点,其中k是我们方法的超参数。受到蛋白质相互作用预测的成功启发。

(二)、节点级特征表示

每个节点i∈V (G)(表示i-蛋白质序列中的残基)用一个特征向量表示。EGAT将序列X = {X1, X2, X3,…, XN},其中Xi为第i个残基的一个字母符号,N为P中残基的总数,X通过所开发的嵌入生成管道。尽管我们在实验中使用了ProtBERT,因为与其他方法相比,它在残差级别分类任务(例如:第二结构预测),EGAT与ProtTrans[36]中可用的预先训练的语言模型无关,这意味着ProtTrans中其他适当的语言模型也可以用于我们的模型。

(三)、边级特征表示

在蛋白质P的有向图表示G中,一条边Eij(从节点i到节点j)的边特征值由ξji表示,ξji∈Rfε,fε为边特征的个数。我们使用以下两个特征(即fε= 2)作为边特征:(1)残基i和j之间的距离Dij,它是通过它们原子之间的平均距离计算的;(2)残基i和j的相对方向θij。

(四)、 EGAT结构的主要特点

  • 局部特征提取器的架构
  • 提出的边缘聚合图关注层的结构
  • 节点级分类

(五)、边缘聚合图关注层

通过引入边缘聚合提出的修改。特征表示为h(由局部特征提取器生成λ,使用提出的边聚合图注意力层-自旋耦合结构来编码蛋白质的三维结构信息。
在这里插入图片描述
图1、EGAT应用于一个有13个残基(i = 0, 1, 2,…12)。(a)应用本地特征提取器λ(窗口大小wlocal = 3)。(b)的应用优势聚合图注意层Υ一个残留2中心节点的邻居,和{1、3、10}N2(附近的节点2)。©节点级分类器应用于h 2最后表示节点2(由Υ)。这里sigm表示生成概率P2的sigmoid激活函数,它表示节点2作为交互站点的数字倾向。(d)边缘聚合图注意层的详细信息显示在展开的(展开用虚线表示)中。这里,黄色的梯形代表计算注意力得分并将其应用于节点和边的特征的模块。(e)黄色梯形的基本工作机制以展开形式详列。

(六)、在计算注意力分数时使用边缘特征

在计算注意力得分时,如在Eqn. 2,除了节点特征hi, hj∈Rfη,我们将ξ集(ji)是指从节点j到节点i的有向边的边缘特征。公式3和4显示了产生注意力分数的计算,这种分数不仅依赖于节点,而且也依赖于边。公式3表示由可学习参数参数化的评分函数Wα∈R2fˆη+ fˆε,Ω()是一个激活函数。eji是注意得分的非规范化表示,符号“||”表示连接操作。这里,Wν∈射频ˆη×fη和Wρ∈射频ˆεε×f可学的参数用于应用线性变换的特性分别为节点和边缘
在这里插入图片描述

三、结果

(一)、数据集

分析了三个广泛使用的基准数据集,即(1)Dset 186 [25], (2) Dset 72[25],和PDBset 164。Dset 186、Dset 72、PDBset 164分别包含186、72、164个非重复蛋白序列。如果氨基酸的绝对溶剂可及性小于1˚A2,则将其标记为相互作用位点,结合形式的蛋白质结合前后;否则,它将被标记为非交互站点(李敏老师的数据集)

(二)、基准数据集上的结果

在这里插入图片描述
表一、在基准数据集上比较我们提出的EGAT和GAT-PPI与其他最先进的方法的预测性能。每个指标的最佳和次佳结果分别以粗体和斜体显示。未由相应来源报告的值以“-”表示
在这里插入图片描述
图2:长程相互作用和蛋白质长度对PPI位点预测性能的影响。(a) EGAT、GAT-PPI和DELPHI在不同水平的非局部交互作用上的AUPRC。我们在附录G的表A4中显示了七个箱子上的结果。(b) EGAT、GAT-PPI和DELPHI在不同长度蛋白质上的AUPRC。

(三)使用基于 ProtBERT的特性进行迁移学习的影响

在这里插入图片描述
表二、不同类型特性的影响。我们展示了EGAT和GAT-PPI在DeepPPISP特征集和基于protter的特征集上的性能。最好的结果以粗体显示。

四、总结

提出了EGAT,一种新的,高度准确,快速的PPISP分离蛋白的方法。我们用边缘聚合增强了GAT,并证明了它在提高PPISP性能方面的有效性。我们也第一次在PPISP中使用了带有protebert生成特征集的迁移学习。我们的实验结果表明,GAT(有或没有边缘聚合)实质上优于其他竞争方法。我们系统地分析了我们提出的边缘聚合和迁移学习的效果与预先训练的变压器样模型

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Attention-guided CNN for image denoising》是一种用于图像去噪的神经网络模型。它基于卷积神经网络(CNN)的基本架构,但引入了注意力机制来提高去噪的效果。 在传统的CNN中,输入图像经过一系列卷积和池化操作,通过多个卷积层和全连接层进行特征提取和分类。然而,在图像去噪任务中,图像中不同区域的噪声水平可能不同,因此传统的CNN在对整个图像进行处理时可能无法有效地去噪。 为了解决这个问题,注意力机制被引入到CNN中。注意力机制可以将网络的注意力集中在图像的不同区域,以便更有针对性地去噪。该模型通过引入注意力模块,在每个卷积层之后对特征图进行处理,以增强重要区域的特征表示。这种注意力机制能够在去噪任务中更好地保留图像的细节和边缘,提高去噪效果。 具体来说,注意力模块通过学习图像的空间注意力和通道注意力来选择性地加权特征图。空间注意力用于选择特征图中的重要区域,而通道注意力用于选择特征图中的重要特征通道。通过这种方式,网络可以更加自适应地选择图像中重要的特征表示,从而更好地去除噪声。 实验证明,使用注意力机制的CNN模型在图像去噪任务上具有更好的性能。它在不同的噪声水平和噪声类型下都能够有效地去噪,并且能够保持图像的细节和结构。因此,这个注意力引导的CNN模型在图像去噪任务中具有一定的应用前景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值