文献翻译
文章平均质量分 87
认认真真学习
勤勤恳恳学习,认认真真记录。
展开
-
Learning to Represent the Evolution of Dynamic Graphs withRecurrent Models
摘要学习图的拓扑结构外,还关注于学习时间信息。提出了一种动态图的无监督表示学习体系结构,旨在学习随时间演化的图的拓扑和时间特征。该方法由嵌入门控图神经网络(GGNNs)和长短时记忆网络(LSTM)的序列-序列编解码器模型组成。GGNN能够在每个时间步学习图的拓扑结构,而LSTM则用于在时间步之间传播时间信息。此外,编码器学习进化图的时间动态,解码器使用编码器提供的编码表示在相同的时间段重建动态。相关工作静态图动态图节点的表示学习。37-32-16-15-42-5-38问题定义动态原创 2021-09-16 21:43:04 · 388 阅读 · 0 评论 -
Dynamic Graph Convolutional Networks. Pattern recognition 2019
摘要我们的目标是通过使用神经网络模型来联合开发结构化数据和时间信息。基于这个原因,我们提出了两种新的方法,将长-短期记忆网络和图卷积网络结合起来,结合图结构来学习长-短期依赖关系。介绍balabalbala....,许多真实世界的结构化数据是动态的,并且图中的节点/边可能会随着时间而变化。在这种动态场景中,时间信息也可以发挥重要作用。LSTM和GCN简介。本文的组织结构如下:第2节总结了最相关的方法。在第3节中,我们描述了我们的方法。第4节介绍了与基准方法的比较。第5节通过讨论我们的发现原创 2021-09-16 11:12:45 · 764 阅读 · 0 评论 -
Distributed Representations of Words and Phrases and their Compositionality--翻译
词和短语的分布表示及其构成原作者:Tomas Mikolov等#摘要最近引入的连续Skip-gram模型是学习高质量分布向量表示的有效方法,分布向量表示可以捕获大量精确的句法和语义关系。在本文中,我们提出了几个扩展,提高了向量的质量和训练速度。通过对频繁的单词进行二次抽样,我们获得了显着的加速,同时还学习了更多的常规单词表示。我们还提出了一个分层soft max的简单替代方案,称为负采...翻译 2020-04-03 10:12:18 · 542 阅读 · 0 评论