报告主题:重新思考GNN,不卷积的图神经网络
报告日期:8月21日(周三)10:30-11:30
报告要点:
重新思考卷积图神经网络(GNN):它们表达能力有限,容易出现过度平滑和过度压缩,并且需要特殊的稀疏模块来实现高效运算。我们设计完全不依赖卷积运算符的图学习模块,称为随机游走统一记忆(RUM),其中RNN将终止于每个节点的拓扑特征和语义特征合并。基于丰富的RNN和图拓扑学研究,我们理论上证明并实验上验证RUM减弱了上文所述的症状,并且比比Weisfeiler-Lehman(WL)同构测试更具表达能力。在各种节点和图层面的分类和回归任务中,RUM展现了较强的性能,并且具有强鲁棒性、高内存效率、可拓展性和很高的速度。
报告嘉宾:
王源清,纽约大学Simons Center Independent Fellow, Schmidt Science Fellow. 设计为药物化学家所有、所治、所享的图机器学习模型、等变模型、和量子替代立场模型。
扫码报名
近期热门报告