文献阅读(18)NIPS2019-Self-attention with Functional Time Representation Learning

本文是对《Self-attention with Functional Time Representation Learning》一文的浅显翻译与理解,原文章已上传至个人资源,如有侵权即刻删除。

朋友们,我们在github创建了一个图学习笔记库,总结了相关文章的论文、代码和我个人的中文笔记,能够帮助大家更加便捷地找到对应论文,欢迎star~

Chinese-Reading-Notes-of-Graph-Learning

更多相关文章,请移步:文献阅读总结:网络表示学习/图学习

文章目录

Title

《Self-attention with Functional Time Representation Learning》
——NIPS2019
Author: Da Xu

总结

文章意图将自注意力机制中的位置编码替换为时间编码,通过自注意力机制可以将节点的邻居信息按照时间顺序进行权重赋值等操作,并最终与节点自身信息相结合,得到节点在任意时间点的嵌入。
文章基于Bochner理论和Mercer理论,提出了两类时间编码算法。
对Bochner理论,算法用核函数替换时间编码函数,并使用傅里叶变换、欧拉公式、蒙特卡洛积分进行推导,问题变为学习频率分布,进而介绍了参数化和无参数化的方法。
对Mercer理论,用核函数替换时间编码函数,再将未知的核函数映射为一组与其有相同性质的核函数。
该文是文献阅读(11)ICLR2020-Inductive representation learning on temporal graphs一文的理论基础,在ICLR2020这篇文章中,仅基于Bochner理论实现了TGAT算法,可以结合阅读。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值