AI博士读用于分子预测的编码器-解码器文献 【AI4Science技术速览】

Multimodal Transformer for Property Prediction in Polymersicon-default.png?t=N7T8https://pubs.acs.org/doi/full/10.1021/acsami.4c01207ACS Applied Materials & Interfaces ( IF 8.3 ), DOI: 10.1021/acsami.4c01207

 这篇论文的多模态架构将GNN的SMILES和输出功能作为输入。 

SyntaLinker: automatic fragment linking with deep conditional transformer neural networksicon-default.png?t=N7T8https://pubs.rsc.org/en/content/articlelanding/2020/sc/d0sc03126gChemical Science ( IF 7.6 ) Pub Date : 2020-07-22 , DOI: 10.1039/d0sc03126g

SyntaLinker的核心架构由多个编码器-解码器堆栈组成:每个编码器层都有一个多头自注意力子层和一个位置前馈网络 FFN子层(FFN 子层采用ReLU激活)。多头注意力由多个并行运行的缩放点积注意力函数组成。 

 FraHMT: A Fragment-Oriented Heterogeneous Graph Molecular Generation Model for Target Proteinsicon-default.png?t=N7T8https://pubs.acs.org/doi/full/10.1021/acs.jcim.4c00252
Journal of Chemical Information and Modeling ( IF 5.6 ) , DOI: 10.1021/acs.jcim.4c00252

 以基于原子和片段信息构建异质图表示分子,使模型能够从分子的片段和化学反应信息中学习更丰富的化学规则和结构特征。使用一小组已知对靶蛋白有活性的配体分子对模型进行了迁移学习,以产生与靶蛋白结合得更好的分子。

论文设计一个整合多模态信息的分子生成模型,输入包括分子的SMILES表示和图形表示,在 ZINC 上预训练了一个基于 VAE 架构的生成模型数据集,以图卷积神经网络(GCN)和递归神经网络(RNN)为编码器和解码器。整体架构如下图:

 

DrugormerDTI: Drug Graphormer for drug–target interaction prediction
Computers in Biology and Medicine ( IF 7.0 ), DOI: 10.1016/j.compbiomed.2023.106946 

该文表明,Graph TransformerGraph Transformer、Residual2vec 可以自动从目标分子中学习判别顺序和拓扑信息以及蛋白质残基之间的潜在关系。 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值