talk
人大高瓴的一篇工作,很细致,实验很充分,很棒。
思想很简单:由于切比雪夫多项式理论上有最小逼近误差,最优。但其效果劣于gcn,GPR-GNN,BernNet。通过实验发现,切比雪夫多项式的系数会震荡,所学得系数不好。本文的核心:如何求得系数(GPR-GNN那种,每一阶邻居的系数问题,更加理论化了)
本文涉及谱图卷积,特征值等理论,循序渐进做实验式写法,中间的模型分别如下。
1. 谱图卷积
研究拉普拉斯矩阵,通过类比卷积,定义图卷积。拉普拉斯矩阵的特征向量作为正交基。过程即:信号傅里叶变化–滤波–傅里叶逆变换。(但是特征值分解计算复杂度高)
公式1的最后的约等于后的结果:就是目前很多文章的出发点,预计算,然后就是如何学好这个系数ωk。
2. ChebNet
chebnet采用切比雪夫多项式去逼近这个 滤波器系数, 但是 注意其系数是隐含在参数矩阵Wk中的。
3. ChebBase—解耦chebnet
类似于APPNP,GPR-GNN。首先解耦,直接通过mlp降维(fθ),之后对于每一层的 邻居表征进行 动态学习系数。即系数变成了wk*Tk(L),不同于GPR只有wk。这里包含了切比雪夫的系数计算。
4. ChebBase/k–对系数约束
直接在chebBase的基础上对每一项系数约束
5. ChebNetII
5.1 chebyshev 插值
5.2 chebnet by 5.1
通过切比雪夫差值来解决系数学习问题
相较于chebNet,本文的改动就是通过 一个learnable 系数 γ和切比雪夫节点进行插值 从而获得 更好的系数。
6. 实验
半监督节点分类中做了 随机划分 和 固定 划分的。
全监督学习,60%,20%,20%
可扩展的训练,预计算来学习系数。类似于sign