【硬核课】最新《图卷积神经网络GCN》2020概述,76页ppt,NTU-Xavier Bresson,纽约大学深度学习课程...

点击上方,选择星标置顶,每天给你送干货

阅读大概需要9分钟

跟随小博主,每天进步一丢丢

转载自:专知

【导读】Yann Lecun在纽约大学开设的2020春季《深度学习》课程,干货满满。最新的一期是来自新加坡南洋理工大学的Xavier Bresson教授的图卷积神经网络课程,共76页PPT,非常硬核干货,讲述了GCN近年来的研究进展,包括经典卷积网络、谱图卷积网、 空间域图卷积网、GCN基准等。

课程地址:https://atcold.github.io/pytorch-Deep-Learning/

Xavier Bresson 是南洋理工大学数据科学与AI中心的副教授,目前主要致力于研究稀疏数据和谱图理论来设计适应大数据科学的新型算法。

个人主页:http://www.ntu.edu.sg/home/xbresson/index.html

图卷积网络

目录:

  • 第一部分传统卷积网

    • 架构

    • 图域

    • 卷积

  • 谱域图卷积网

    • 谱卷积

    • 谱GCN

  • 空间域图卷积网

    • 模板匹配

    • 各向同性 GCNs

    • 各向异性 GCNs

    • GatedGCNs

  • 图神经网络基准

  • 结论



投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐阅读:

【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文

【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing

【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译

【一分钟论文】Semi-supervised Sequence Learning半监督序列学习

【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing

详解Transition-based Dependency parser基于转移的依存句法解析器

经验 | 初入NLP领域的一些小建议

学术 | 如何写一篇合格的NLP论文

干货 | 那些高产的学者都是怎样工作的?

一个简单有效的联合模型

近年来NLP在法律领域的相关研究工作


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值