前言
Title: BernNet: Learning Arbitrary Graph Spectral Filters via Bernstein Approximation
Ref: https://arxiv.org/abs/2106.10994
作者3个人大高瓴,1个复旦内鬼(笑)
黄sir应该和许洪腾关系挺好的吧,经常看俩人一起挂名。
主要思想
GPR-GNN and ChebyNet采用图滤波器来对卷积操作做近似。
然而现存的网络主要遵循两大范式,
其一是采取predefined filter weight (GCN,APPNP),
其二是根据graph学习filter weight,但是往往without necessary constraints。(例如ChebNet)
这两种范式都可能回导致过简化over-simplified(过简化)或者ill-posed(不适定)问题。
我觉得把Cheb分到第二类不太科学,不能说有几个可学习参数就叫direct learning吧。
当然这里讨论taxonomy的价值不大,先略过吧。
作者提出引进Bernstein多项式的方法。
通过调节多项式的超参,可以直接决定滤波器的频域特征。
按作者的意思,任意调节超参,可以逼近任意滤波器。
听上去很有意思。
看了这个图的直观理解就是,K阶的basis里面啥形状都有。
给定合适的weight就能组合出任意结果来。
如果是这种思路的话,这也不过是拿Bernstein做了个数学上的幌子。
因为任取K个这类形状的basis,应该都能达到差不多的效果。
draw back:
- 只能实现简单形状的filter,while real-world applications often require much
more complex filters such as band-rejection and comb filters. - 一般靠经验设计或者缺乏合理的constraints,导致低可解释性,低可控性。
- GCN/SGC容易ill-posed。
–以上为21.07.09
–21.10.19更新
听了二作魏sir的现场报告。理解更深了。
什么是一个好的filter
BernNet在一开始试图传达一个通用设计准则,