- 博客(5)
- 资源 (4)
- 收藏
- 关注
原创 [解读] 浅析变分自编码器 (VAE)
变分自编码器 (VAE)VAE 开篇论文:(1312) Auto-Encoding Variational Bayes(1401)Stochastic Backpropagation and Approximate Inference in Deep Generative ModelsVAE 教程 (1606) Tutorial on Variational AutoencodersVAE 综述 (1906) An Introduction to Variational Autoencoders
2020-06-30 21:53:42 1093 1
原创 [解读] Improving the Robustness of Capsule Networks to Image Affine Transformations
本文从理论和实验上表明了动态路由机制对胶囊网络的泛化性和对数据仿射变换的健壮性都没有起到太大的作用, 并且提出了两个小改进, 一个是对所有胶囊使用同一个矩阵进行线性变换, 另一个是取消了动态路由, 使用平均池化处理前一层的胶囊.论文链接: https://arxiv.org/abs/1911.07968v3相关工作有很多工作致力于改进路由迭代算法. 例如文献 [27] 将已有的路由算法归纳为一个加权的核密度估计框架, 并且提出了两个使用不同优化策略的快速路由算法. 文献 [6] 提出了一种基于注意力机
2020-06-26 11:13:51 391
原创 [解读] Capsules with Inverted Dot-Product Attention Routing
本文提出一种新的胶囊网络路由算法, 主要有以下三个亮点: 首先通过一个反向的点积注意力来设计路由, 其次使用层规范化方法, 最后使用并发迭代路由的方法来取代序列式的迭代.论文链接: https://arxiv.org/abs/2002.04764v2开源代码:https://github.com/apple/ml-capsules-inverted-attention-routinghttps://github.com/yaohungt/Capsules-Inverted-Attention-Rou
2020-06-21 21:57:28 871
原创 [解读] Graph Attention Networks
本文提出一种图注意力网络 (GAT), 可用于图结构数据的节点分类任务, 解决了先前基于图卷积模型的缺点. 注意力机制能够给每个邻节点不同的可学习的权重, 增强了网络的表达能力, 避免了大规模的矩阵运算.链接: https://arxiv.org/abs/1710.10903v3开源代码: https://github.com/Diego999/pyGAT相关工作自注意力机制的一大优势是它能够聚焦于最相关的部分来帮助做决策. 自我注意已被证明对于诸如机器阅读 (Cheng et al., 2016)
2020-06-06 21:54:07 509
原创 [解读] Semi-Supervised Classification with Graph Convolutional Networks
作者受到谱图卷积的局部一阶近似的启发, 提出一种可扩展的图卷积网络, 可用于具有图结构数据的半监督学习.论文链接: https://arxiv.org/abs/1609.02907v4相关工作本文考虑节点分类的半监督问题, 即所有节点中只有一部分的标签是已知的. (Zhu et al., 2003; Zhou et al., 2004; Belkin et al.,2006; Weston et al., 2012) 等提出的方法, 标签信息通过某种显式的正则化基于图的正则化项来表达, 并且标签 信
2020-06-06 21:53:25 574 1
Java手机游戏软件改键值
2011-09-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人