DRUG AI
文章平均质量分 68
朝花夕拾,谈一地毛线。~
这个作者很懒,什么都没留下…
展开
-
MPNN
MPNN基本原理机制理论消息传递阶段读取阶段例子A矩阵传播模型输出模型基本原理主要由邻居聚合和消息传递构成,用Xi(k-1)表示节点i在k-1层的节点特征,ej,i表示从节点j到节点i的边特征,消息传递图神经网络可以描述为:方框表示一种可微的排列不变的函数。例如:求和,求均值,取最大值等。ϕ表示可微函数,例如MLPs(多层感知机)。机制理论MPNN的前向传播包括两个阶段,第一个阶段称为message passing(信息传递)阶段,第二个阶段称为readout(读取)阶段。定义一张图G = (原创 2021-03-26 17:21:30 · 2207 阅读 · 0 评论 -
图benchmark
阅读笔记-图benchmark 1、ogbn-proteins: Protein-Protein Association Network2、ogbl-ddi: Drug-Drug Interaction Network3、ogbl-biokg: Biomedical Know...转载 2021-03-17 15:39:23 · 912 阅读 · 0 评论 -
DeepAtom: A Framework for Protein-Ligand Binding Affinity Prediction
深度可分离卷积DwConv作为深度可分离卷积,虽然它不能结合不同的输入通道,但两个相邻的正则点卷积可以有效地融合通道上的信息。另一个分支在与第一个分支的输出连接之前一直保持ptas身份。这种身份分支可以看作是一种有效的特征重用设计,增强了特征的传播,减少了参数的数量。在一个基本单元内,纵深卷积和点向卷积分别引入了·T·R·n2和·n2·n2参数。因此,用一个基本单位可以来代替标准卷积。DeepAtom使用 3个3深度卷积,通道数设置为244,488,976。因此,通过高效的模型设计,我们可以很容易地获得.原创 2021-03-11 21:28:39 · 463 阅读 · 0 评论 -
Masked Language Modeling for Proteins via LinearlyScalable Long-Context Transformers
摘要transformer模型已在各种领域中取得了最先进的结果。 但是,对训练注意力机制以学习远程输入之间的复杂依存关系的成本的担忧不断增加。利用学习的注意力矩阵的结构和稀疏性的解决方案出现了。 但是,涉及长序列的实际应用(例如生物序列分析)可能无法满足这些假设,从而无法探索这些模型。 为了解决这一挑战,我们提出了一种基于快速随机正交特征(FAVOR)的新型Transformer架构,Performer。 我们的机制在token中的token数量上线性缩放,而不是平方缩放,其特征在于亚二次空间复杂度,并且原创 2021-03-07 20:43:58 · 368 阅读 · 0 评论 -
RDKit中的分子3D构象生成
RDKit中的分子3D构象生成一、构象生成算法概述1.基于距离2.基于知识二、代码实现1.添加氢原子2.距离几何算法生成3D结构3.距离几何+ETKDG生成3D构象一、构象生成算法概述1.基于距离生成分子的连接边界矩阵对边界矩阵进行平滑处理根据边界矩阵,随机产生一个距离矩阵。把产生的距离矩阵映射到三维空间中,并为每个原子计算坐标。对计算的坐标结果使用力场和边界矩阵进行粗略的优化。2.基于知识代码实现>>> from rdkit import Chem>>原创 2021-02-17 09:46:50 · 1200 阅读 · 2 评论 -
Beyond Low-frequency Information in Graph Convolutional Networks
文章目录概述一、如何在GNNs中使用不同频率的信号,同时使GNNs适用于不同类型的网络?二、聚合方式三、模型整体结构总结概述图神经网络已被证明在各种与网络相关的任务中都是有效的。 现有的大多数GNN通常利用节点特征的低频信号,这引起了一个基本问题:在现实应用中,我们只需要低频信息吗? 在本文中,我们首先进行了一项评估低频和高频信号作用的实验研究,结果清楚地表明,仅探索低频信号与在不同情况下学习有效的节点表示相距甚远。 我们如何能够自适应地学习GNN中低频信息以外的更多信息? 好的答案可以帮助GNN增强原创 2021-01-31 10:10:00 · 1096 阅读 · 0 评论 -
Molecular Interaction Transformer for DrugTarget Interaction Prediction
哒哒哒哒哒哒多多多多多多多多多多多多多多多多呃呃呃呃呃呃呃呃呃鹅鹅鹅鹅鹅鹅饿鹅鹅鹅饿1111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111原创 2021-01-30 09:08:37 · 802 阅读 · 1 评论