Multimodal Transformer for Property Prediction in Polymershttps://pubs.acs.org/doi/full/10.1021/acsami.4c01207ACS Applied Materials & Interfaces ( IF 8.3 ), DOI: 10.1021/acsami.4c01207
这篇论文的多模态架构将GNN的SMILES和输出功能作为输入。
SyntaLinker: automatic fragment linking with deep conditional transformer neural networkshttps://pubs.rsc.org/en/content/articlelanding/2020/sc/d0sc03126gChemical Science ( IF 7.6 ) Pub Date : 2020-07-22 , DOI: 10.1039/d0sc03126g
SyntaLinker的核心架构由多个编码器-解码器堆栈组成:每个编码器层都有一个多头自注意力子层和一个位置前馈网络 FFN子层(FFN 子层采用ReLU激活)。多头注意力由多个并行运行的缩放点积注意力函数组成。
FraHMT: A Fragment-Oriented Heterogeneous Graph Molecular Generation Model for Target Proteinshttps://pubs.acs.org/doi/full/10.1021/acs.jcim.4c00252
Journal of Chemical Information and Modeling ( IF 5.6 ) , DOI: 10.1021/acs.jcim.4c00252
以基于原子和片段信息构建异质图表示分子,使模型能够从分子的片段和化学反应信息中学习更丰富的化学规则和结构特征。使用一小组已知对靶蛋白有活性的配体分子对模型进行了迁移学习,以产生与靶蛋白结合得更好的分子。
论文设计一个整合多模态信息的分子生成模型,输入包括分子的SMILES表示和图形表示,在 ZINC 上预训练了一个基于 VAE 架构的生成模型数据集,以图卷积神经网络(GCN)和递归神经网络(RNN)为编码器和解码器。整体架构如下图:
DrugormerDTI: Drug Graphormer for drug–target interaction prediction
Computers in Biology and Medicine ( IF 7.0 ), DOI: 10.1016/j.compbiomed.2023.106946
该文表明,Graph TransformerGraph Transformer、Residual2vec 可以自动从目标分子中学习判别顺序和拓扑信息以及蛋白质残基之间的潜在关系。