论文
文章平均质量分 80
山、、、
不断进步,不断成长
展开
-
Transformer、多头自注意力机制
Transformer、多头自注意力机制原创 2022-03-23 17:46:41 · 2174 阅读 · 0 评论 -
Why Do Attributes Propagate in Graph Convolutional Neural Networks? —— 传播本质
这一部分详细的介绍作者思路,按照作者思路一步步推理得到:为什么传播的本质其实是成对相似性的数学优化过程!必要准备准备(一):线性系统中的梯度下降的介绍首先,对于对称的正定系统有下面这个公式,A是对称正定的矩阵,u和x是N维向量。这个公式在理工科很常用。一般来讲,我们给出A和x,需要求u。求这个u给出两种方式。方法一:将方程改为求函数最小值上面的方程可以改为求,下面这个函数的最小值。使得函数f(u)最小的u就是上面方程的近似解。对求函数的最小值,我们有...原创 2022-03-21 16:20:35 · 424 阅读 · 0 评论 -
Why Do Attributes Propagate in Graph Convolutional Neural Networks?
这篇论文是收录在The Thirty-Fifth AAAI Conference on Artificial Intelligence (AAAI-21)上面关于图神经网络的一篇论文。原创 2022-03-20 11:37:46 · 1290 阅读 · 0 评论