文献阅读
文章平均质量分 71
NINJA_xu
这个作者很懒,什么都没留下…
展开
-
EvolveGCN 文献阅读笔记
论文题目EvolveGCN: Evolving Graph Convolutional Networks for Dynamic Graphs发表日期、所属会议/期刊/预印本:AAAI 2020做得什么:EvolveGCN在时间维度上采用了图卷积网络(GCN)模型,而无需借助节点嵌入。所提出的方法通过使用RNN来进化GCN参数来捕获图序列的动态性。怎么做的(重点): EvolveGCN的整体演示图 RNN可以为GRU或LSTM等循环神经网络,时...原创 2021-10-09 21:06:51 · 250 阅读 · 0 评论 -
GCC 文献阅读笔记
论文题目GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training发表日期、所属会议/期刊/预印本KDD 2020做得什么使用自监督任务对GNN进行预训练,然后针对不同的图学习任务对其进行微调。使用图形对比编码(GCC)框架来学习跨图形的结构表示。怎么做的(重点) GCC的预训练和微调阶段,如图: 预训练 目标:预先训练一个通用图神经网络编码器,以捕获这...原创 2021-10-09 17:03:52 · 140 阅读 · 0 评论 -
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation文献阅读笔记
发表日期、所属会议/期刊/预印本:arXiv 2014做得什么:本文提出了一种新的神经网络模型,即RNN Encoder-Decoder, 由两个神经网络(RNN)组成。一个RNN将一个符号序列(sequence of symbols)编码成一个固定长度的向量表示,另一个则将这个表示解码成另一个符号序列。该模型的编码器和解码器被联合训练,以最大化给定源序列的目标序列的条件概率。对学习语言短句的表达且其在语义上和句法上都是有意义的。怎么做的(重点):循环神经网络(RNN)循环神经网络(RN原创 2021-06-22 10:18:58 · 216 阅读 · 0 评论 -
A Neural Probabilistic Language Model(文献阅读笔记)
第一次用神经网络来解决语言模型的问题,本文最大的贡献在于用多层感知器(MLP)构造了语言模型,如下图:原创 2021-06-07 16:24:47 · 1102 阅读 · 0 评论