![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度神经网络
文章平均质量分 92
ShenggengLin
这个作者很懒,什么都没留下…
展开
-
生物信息学|Extracting Drug-Drug Interactions with Attention CNNs
0. 摘要 本文提出了一种新的基于注意力机制的卷积神经网络(CNN)的药物-药物相互作用(DDI)提取模型。CNN已经被证明在DDI提取任务上有很大的潜力;然而,尽管注意力机制在一般领域的分类任务中被证明是有效的,但在目标-实体对句子中强调重要词的注意力机制尚未被利用CNN进行研究。我们在DDI提取-2013共享任务的任务9.2上评估了我们的模型。我们的注意力机制提高了基于CNN的基础DDI模型的性能,该模型获得了69.12%的f-score,可以与最先进的模型竞争。1. 介绍 当同时给病原创 2021-03-24 14:29:05 · 1300 阅读 · 0 评论 -
生物信息学|通过基于多模态注意机制的卷积编码器进行可解释的抗癌化合物灵敏度预测
0. 摘要 根据最近神经网络在药物设计和灵敏度预测方面的进展,我们提出了一种新的模型,利用基于多模态注意机制的卷积编码器对抗癌化合物灵敏度进行可解释预测。我们的模型基于药物敏感性的三个关键数据:化合物结构(SMILES),肿瘤的基因表达谱,以及来自蛋白质-蛋白质相互作用网络的细胞内相互作用的先验知识。我们证明,我们的多尺度卷积注意力编码器显著优于基于Morgan指纹训练的基线模型和基于SMILES的编码器选择,以及先前报道的最先进的多模态药物敏感性预测。此外,通过对注意权重的深入分析,证明了本文方法原创 2021-03-24 14:28:02 · 1117 阅读 · 0 评论 -
生物信息学|机制驱动的可解释深度神经网络,用于药物组合的协同预测和通路反卷积
0. 摘要 联合用药在癌症治疗方面显示出了巨大的潜力。不仅可以减轻耐药性,而且可以提高治疗效果。抗癌药物数量的快速增长已经导致所有药物组合的实验研究变得昂贵和耗时。计算技术可以提高药物联合筛选的效率。尽管最近在将机器学习应用于协同药物组合预测方面取得了进展,但仍存在一些挑战。首先,现有方法的性能是次优的。还有很大的改进空间。第二,生物知识没有完全融入到模型中。最后,许多模型缺乏可解释性,限制了它们的临床应用。为了应对这些挑战,我们开发了一种基于知识和自注意力机制的增强深度学习模型TranSynerg原创 2021-03-24 14:22:43 · 1805 阅读 · 0 评论 -
生物信息学|DeepPurpose:药物靶标相互作用预测的深度学习库
本篇推文引自:Novel deep learning model for more accurate prediction of drug-drug interaction effects1. 摘要 背景:准确地预测药物-药物相互作用(DDIs)的影响对于更安全更有效的药物联合处方很重要。许多预测DDIs效应的计算方法已经被提出,目的是减少在体内或体外识别这些相互作用的难度,但预测性能仍有改进的空间。 结果:在本研究中,我们提出了一种新的深度学习模型来更准确地预测DDIs的效果。提出的模型原创 2020-12-09 14:48:16 · 8875 阅读 · 0 评论 -
生物信息学|深度学习改善了药物药物相互作用和药物食物相互作用的预测精度
本篇推文引自:DPDDI: a deep predictor for drug-drug interactions1. 摘要 在本工作中,我们提出了一种新的方法(即DPDDI),利用图卷积网络(GCN)和深度神经网络(DNN)模型作为预测器,从DDI网络中提取药物的网络结构特征,从而预测DDIs。GCN通过获取DDI网络中药物的拓扑关系来学习药物的低维特征表示。DNN预测器将任意两种药物的潜在特征向量串联起来作为对应药物对的特征向量,训练一个DNN,用于预测潜在的药物-药物相互作用。实验结果表明,原创 2020-12-09 14:45:27 · 2249 阅读 · 0 评论 -
用于自然语言理解的多任务深度神经网络(Multi-Task Deep Neural Networks for Natural Language Understanding)
1. 摘要 本文提出了一个多任务深度神经网络(MT-DNN),用于跨多个自然语言理解(NLU)任务学习表示。MT-DNN不仅利用了大量的跨任务数据,而且还受益于正则化效应,从而产生更通用的表示,以帮助适应新的任务和领域。MT-DNN扩展了Liu等人提出的模型,加入了一个预训练的双向transformer语言模型,称为BERT。MT-DNN在10个NLU任务上获得了最先进的结果,包括SNLI、SciTail和9个GLUE任务中的8个,将GLUE基准提升到82.7%(2.2%的绝对改进)。还使用SNLI原创 2020-10-07 21:03:29 · 5424 阅读 · 0 评论