直播报名|重新思考GNN,不卷积的图神经网络,实现高效计算,热门工作

outside_default.png

报告主题:重新思考GNN,不卷积的图神经网络

报告日期:8月21日(周三)10:30-11:30

outside_default.png

报告要点:

重新思考卷积图神经网络(GNN):它们表达能力有限,容易出现过度平滑和过度压缩,并且需要特殊的稀疏模块来实现高效运算。我们设计完全不依赖卷积运算符的图学习模块,称为随机游走统一记忆(RUM),其中RNN将终止于每个节点的拓扑特征和语义特征合并。基于丰富的RNN和图拓扑学研究,我们理论上证明并实验上验证RUM减弱了上文所述的症状,并且比比Weisfeiler-Lehman(WL)同构测试更具表达能力。在各种节点和图层面的分类和回归任务中,RUM展现了较强的性能,并且具有强鲁棒性、高内存效率、可拓展性和很高的速度。

报告嘉宾:

王源清,纽约大学Simons Center Independent Fellow, Schmidt Science Fellow. 设计为药物化学家所有、所治、所享的图机器学习模型、等变模型、和量子替代立场模型。

outside_default.png

扫码报名



近期热门报告

outside_default.png

outside_default.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值