深度学习
文章平均质量分 88
I_dyllic
生活蒙太奇
展开
-
论文阅读《Multimodal Drug Target Binding Affinity Prediction using Graph Local Substructure》
记录阅读过程中的问题例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-07-27 18:47:11 · 737 阅读 · 0 评论 -
论文阅读《Emerging opportunities of using large language models for translation between drug molecules a》
药物分子是一种改变生物体精神或身体状态的物质。每种获批药物都有适应症,即该药物用于治疗特定疾病的治疗用途。虽然大型语言模型 (LLM),一种生成式人工智能 (AI) 技术,最近已证明在分子和其文本描述之间进行翻译方面非常有效,但在促进药物分子和适应症(描述使用该药物治疗的疾病、病症或症状)或反之亦然之间的翻译应用方面,研究仍然存在差距。解决这一挑战可以极大地促进药物发现过程。根据给定的适应症生成药物的能力将允许发现针对特定疾病或靶标的药物,并最终为患者提供更好的治疗。原创 2024-06-20 23:08:35 · 589 阅读 · 0 评论 -
GRU基础知识以及相关名词解释
GRU通过引入重置门和更新门,使得网络可以灵活地选择保留或者遗忘以前的状态,从而解决了传统RNN在长序列数据处理上的问题。其相对简单的结构和较少的参数使得GRU在实际应用中非常受欢迎。直观地展示GRU的工作原理,我会结合公式和图像一步步解释GRU的具体流程,包括候选隐藏状态和当前隐藏状态的生成过程。重置门 (r_t)决定了上一时刻的隐藏状态 (h_{t-1}) 在生成候选隐藏状态 (\tilde{h}_t) 时的影响。更新门 (z_t)原创 2024-06-19 16:36:01 · 702 阅读 · 0 评论 -
论文笔记《基于深度学习模型的药物-靶标结合亲和力预测》
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-05-28 11:07:08 · 1447 阅读 · 1 评论 -
RDkit学习
安装轻轻松松,手拿把掐,我就不仔细说了例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-04-25 11:25:48 · 155 阅读 · 0 评论 -
DTI &DTA
DTI(Drug-Target Interaction)任务和DTA(Drug-Target Affinity)任务都是与药物发现和药物设计相关的任务,但它们在方法和目标上有一些关键区别。任务类型DTI任务通常涉及预测给定药物和给定靶点之间是否存在相互作用。这种相互作用可以是药物与蛋白质靶点的结合,或者药物对靶点的生物活性。DTA任务则专注于预测给定药物与给定靶点之间的亲和力或结合亲和力。这包括预测药物分子与蛋白质靶点之间的结合亲和力。衡量指标。原创 2024-04-14 17:29:15 · 808 阅读 · 0 评论 -
论文笔记《TAG-DTA:Binding-region-guidedstrategytopredictdrug-target affinity using transformers》
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-04-09 14:30:37 · 774 阅读 · 0 评论 -
复现代码过程
结果就开始报错:后来我自己创建了一个python3.8的环境进行语句安装还是报一样的错,纳了闷了,难不成是节点问题??把节点关了,再试一次这个语句无语,还错。那我从头,不创建环境,直接在关闭节点的情况下运行原始语句:又失败了运行第一句。。。。又失败了要一个一个排查,,,,,原创 2024-04-02 11:10:01 · 222 阅读 · 0 评论 -
Transformer相关知识
Transformer是一种深度学习模型架构,最初由Vaswani等人在2017年的一篇论文中提出,用于处理序列到序列的任务,如机器翻译。它是一种基于注意力机制的模型,相比传统的循环神经网络(RNN)或卷积神经网络(CNN),Transformer在处理长序列时表现更好,并且可以更好地并行化处理。Transformer已经成为自然语言处理领域的重要基础模型,并且在其他领域也有广泛的应用。原创 2024-03-31 11:30:22 · 975 阅读 · 0 评论 -
复现代码过程中的数据处理知识补充
小白实现代码,记录自己的学习脚步。原创 2024-03-28 11:33:20 · 982 阅读 · 0 评论 -
论文阅读及知识补充《基于局部子结构特征及其补语的药物-药物相互作用预测》
今天主要学习的论文是《Drug-drug interaction prediction based on local substructure features and their complements》基于局部子结构特征及其补语的药物-药物相互作用预测仅作个人的知识补充。LSFC模型是整个神经网络模型的主体,负责组合不同的子模块并执行前向传播。它由Attention、Intermediate和Output组成。Attention模块是自注意力机制的实现,负责计算输入的自注意力。原创 2024-03-19 21:14:31 · 602 阅读 · 1 评论 -
CNN RNN 与transformer简介
帮助我们简单且快速的理解。原创 2024-03-17 23:09:45 · 2431 阅读 · 1 评论