GNN学习—递归图神经网络


GNN学习—综述根据一篇GNN综述的论文对GNN进行了大概简要的总结,接下来的一系列文章会对RecGNNs(递归图神经网络 )、ConvGNNs(卷积图神经网络)、GAEs(图自编码器)、STGNNs(时空图神经网络)分别进行介绍,并列举相应的论文以及模型。
首先,本篇介绍RecGNNs(递归图神经网络 ),从循环神经网络(RNN)说起,再引出递归图神经网络。

RNN简介

RNN (Recurrent Neural Networks)

  • 产生原因
    神经网络非常强大,只要训练数据足够,给定特定的x,就能得到希望的y。但是神经网络只能单独的处理每个的输入数据,也就是一个输入得到一个输出。不同的输入之间是没有联系的。而某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。例如说当在理解一句话时,不能孤立的理解这句话的每个词,而是需要处理这些词连接起来的整个序列;当处理视频的时候,我们也不能只单独的去分析每一帧,而要分析这些帧连接起来的整个序列。针对这类需要先前的知识与当前信息共同决定输出结果的任务,提出了循环神经网络RNN。
  • 模型
    RNN的隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。
    在这里插入图片描述
    正向传播&反向传播:正向传播得到输出值,将输出与真实标签值比较得到误差,误差反向传播更新权重值,训练网络。
    优化算法:BPTT,同时考虑了层级间的纵向传播以及时间上的横轴传播。
  • 应用:NLP中的分词任务、实体识别,词性标注都是序列标注问题。

LSTM(Long-Short Term Memory)

  • 产生原因
    RNN 有短期记忆问题,如下图,无法处理很长的输入序列,因此提出LSTM 学习长期依赖性。
    在这里插入图片描述

  • 模型
    原始 RNN 的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。再增加一个状态,即c,让它来保存长期的状态,

  • 5
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
嗨!对于神经网络(Graph Neural Networks,简称GNN),我可以给你一些深入浅出的学习建议。GNN是一种基于结构进行学习和推理的神经网络模型,在许多结构数据领域具有广泛的应用。 首先,建议你先了解一些论的基础知识,比如的定义、的表示方法、节点和边的属性等。这将有助于你更好地理解GNN模型的原理和应用。 接下来,你可以学习GNN的基本原理和主要组成部分。GNN主要包括卷积层(Graph Convolutional Layer)和池化层(Graph Pooling Layer)。你可以学习一些经典的GNN模型,如GraphSAGE、GCN(Graph Convolutional Network)和GAT(Graph Attention Network)。这些模型会帮助你建立对GNN的基本理解。 在学习过程中,不要忽视实践环节。尝试使用一些开源的GNN框架(如PyTorch Geometric、DGL等)或编写自己的代码实现一个简单的GNN模型。通过动手实践,你可以更加深入地理解GNN的工作原理,并在实际问题中应用它。 此外,我还建议你关注一些相关的研究论文和领域进展。GNN是一个快速发展的领域,新的模型和技术层出不穷。阅读最新的研究论文,关注会议和期刊上的相关工作,可以帮助你了解最新的研究动态,并从中获取灵感。 最后,记住持续学习和实践是很重要的。神经网络是一个复杂而广泛的主题,需要不断地深入学习和实践才能掌握。希望这些建议能对你学习神经网络GNN有所帮助!如果你有更具体的问题,欢迎继续提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值