图神经网络
文章平均质量分 95
图神经网络学习,包括源码复现和论文笔记
鲸可落
这个作者很懒,什么都没留下…
展开
-
【论文阅读】《KNOWLEDGE CARD: FILLING LLMS’ KNOWLEDGE GAPS WITH PLUG-IN SPECIALIZED LANGUAGE MODELS》
LLMs是静态的通用的语言模型,需要频繁的重新训练或者更新,来适应新的不同的任务。很明显这样的设计,无法生成相关的,最新的知识。本文提出Knowledge Card,一个模块化框架,将新的事实和相关的知识插入到通用的LLM中。原创 2024-06-06 09:42:12 · 918 阅读 · 0 评论 -
【论文阅读】《HGPROMPT:Bridging Homogeneous and Heterogeneous Graphs for Few-shot Prompt Learning》
本文提出HGPROMPT,一种基于少样本提示的框架,通过双模板设计,不仅实现了预训练任务和下游任务的统一(任务目标统一为链接预测),还统一了同质图和异质图(将异质图转化为多个同质图)。原创 2024-04-02 10:24:18 · 790 阅读 · 0 评论 -
微调(fine-tune)相关概念
本文介绍了微调的相关概念以及理论基础,并介绍了现阶段几种微调方法转载 2024-03-29 17:25:26 · 84 阅读 · 0 评论 -
【论文阅读】《GraphPrompt-Unifying pre-training and downstream tasks for graph neural networks》
本篇基于“pretrain,prompt,fine-tune”的范式,提出GraphPrompt少样本的提示框架,统一下游不同的任务目标,将下游任务目标和预训练模型目标对齐。原创 2024-03-29 17:14:46 · 623 阅读 · 1 评论 -
【论文阅读】《PRODIGY: Enabling In-context Learning Over Graphs》
本文提出Pretraining Over Diverse In-Context Graph Systems(PRODIGY),第一个在图上使用上下文学习的预训练框架。关键思想是,设计了一种提示图来表示图上的上下文学习,这个提示图连接了提示示例和查询。然后又提出了一个图神经网络架构的提示图和相应的上下文预训练目标组件。这样,PRODIGY预训练模型可以通过上下文学习直接在看不见的图上执行新的下游分类任务。原创 2024-03-01 15:59:12 · 1200 阅读 · 1 评论 -
【论文阅读】《Graph Neural Prompting with Large Language Models》
本文提出了图神经提示(Graph Neural Prompt),从知识图谱中学习到拥有的知识并整合到与训练的LLM,帮助预训练的LLMs从知识图谱中学习有用的知识。原创 2024-03-01 15:50:35 · 1330 阅读 · 2 评论 -
【论文阅读】LLM4GCL: CAN LARGE LANGUAGE MODEL EM-POWER GRAPH CONTRASTIVE LEARNING?
本文提出了LLM4GCL,第一个全面系统地研究LLM在GCL的应用。旨在深入解决以下关键研究问题:如何利用LLM在特征和结构层面上增强图增强?如何以无监督的方式微调预训练的PLM,以增强其编码文本节点属性和结构关系的能力?原创 2024-01-23 20:43:12 · 1254 阅读 · 3 评论 -
【论文阅读】LLM-to-LM Interpreter for Enhanced Text-Attributed Graph Representation Learning
本文是对《LLM-to-LM Interpreter for Enhanced Text-Attributed Graph Representation Learning》阅读笔记,本文关键的思想是,解释作为特征。通过提示语言模型去解释他的预测,我们提取相关先验知识和推理步骤,使这些信息能够被较小的模型处理,类似于人类专家如何使用解释来传达见解。原创 2024-01-23 20:24:21 · 1271 阅读 · 0 评论 -
【论文阅读】Can Large Language Models Empower Molecular Property Prediction?
分子属性预测得到巨大的关注,分子图能够被描述为图结构的数据或SMILES 文本。LLMs的快速发展给NLP领域带来颠覆性变化,但是,LLM如何影响分子性质预测的探索仍处于早期阶段。本文提出,对于所给的SMILES序列,设计合理的提示,提示LLM进行zero/few-shot 分类,并总结出新的表征,用新的表征在下游任务上微调小规模LMs。原创 2024-01-19 20:50:15 · 1302 阅读 · 0 评论 -
【论文阅读】GPT4Graph: Can Large Language Models Understand Graph Structured Data?
本文通过实验评估LLM在理解图结构数据的能力——在各种各样的结构和语义相关的任务上评估LLM在图结构数据理解的能力。目标是建立一个全面的比较,以显示LLM在理解图结构数据的能力。原创 2024-01-19 20:43:39 · 2688 阅读 · 0 评论 -
【论文阅读】One For All: Toward Training One Graph Model for All Classification Tasks
《One For All: Toward Training One Graph Model for All Classification Tasks》论文阅读,这是一篇将图神经网络与大语言模型相结合的一篇论文,统一了图上的三种分类任务,并取得了可比的表现性能原创 2024-01-17 18:59:00 · 1390 阅读 · 0 评论 -
【论文阅读】Deep Graph Contrastive Representation Learning
本文为《Deep Graph Contrastive Representation Learning》的阅读笔记,从研究动机,创新点出发,到方法论,最后还有代码实现。原创 2024-01-17 17:46:34 · 1248 阅读 · 5 评论 -
【论文阅读】Deep Graph Infomax
本文是对《Deep Graph Infomax》论文阅读的笔记,从研究动机,基本思想,理论准备到实验设置,代码实现。原创 2024-01-10 16:47:47 · 1550 阅读 · 0 评论 -
【论文阅读】Variational Graph Auto-Encoder
论文阅读笔记《Variational Graph Auto-Encoder》原创 2024-01-07 20:03:10 · 1589 阅读 · 1 评论 -
【源码复现】《Simple and Deep Graph Convolutional Networks》——GCNII模型
本文简单的介绍了《Simple and Deep Graph Convolutional Networks》的论文思想以及了中GCNII模型的复现,并给出详细的源码包括torch和dgl复现源码.原创 2023-12-13 21:04:26 · 1329 阅读 · 0 评论 -
【源码复现】《Towards Deeper Graph Neural Networks》
本篇文章是对《Towards Deeper Graph Neural Networks》论文中模型——DAGNN的复现,并简要概述了模型的核心思想和源码链接原创 2023-12-13 16:17:25 · 1021 阅读 · 0 评论 -
【源码复现】图神经网络之PPNP/APPNH
本文主要介绍了PPNP/APPNP算法,从PageRank到Personlized PageRank,再到PPNP/APPNP,最后给出了torch复现源码和DGL复现源码原创 2023-11-13 17:00:41 · 583 阅读 · 0 评论 -
【源码复现】图神经网络之GAT
本文对GAT模型作了简单的概述,并给出了GAT的复现源码。原创 2023-10-25 17:11:26 · 294 阅读 · 0 评论 -
【源码复现】图神经网络之SGC
本文介绍了SGC基于GCN的改进工作及公式推导,并在最后附上SGC的pyroch源码复现和DGL源码复现。原创 2023-10-17 20:32:18 · 307 阅读 · 0 评论 -
【源码复现】图神经网络之vanilla-GCN
本文简短的介绍了GCN的相关概念和分层传播规则并在最后留下GCN复现源码,包括pytorch复现源码和dgl复现源码原创 2023-10-08 17:18:18 · 221 阅读 · 0 评论