![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
表示学习
文章平均质量分 94
Miha_Singh
不闻不若闻之,闻之不若见之,见之不若知之,知之不若行之,学至于行之而止矣
展开
-
Improved Deep Metric Learning with Multi-class N-pair Loss Objective
从N-pair loss初探度量学习原创 2023-08-10 01:14:55 · 193 阅读 · 0 评论 -
On the Bottleneck of Graph Neural Networks And Practical Implcation
????文章目录1 前言2 Over Suqashing4 总结Reference论文地址:https://openreview.net/pdf?id=i80OPhOCVH2源码:bottleneck来源:ICLR, 2021关键词:GNN, Over-Squashing1 前言该论文针对GNN中的远距离信息的传播问题提出了一个新的解释。文中讨论的问题是:GNN在聚集/利用远距离结点的信息时存在困难/一个瓶颈。论文针对这个问题进行了讨论和分析,并通过一些例子验证了这个问题。2 Over原创 2021-03-28 22:08:31 · 839 阅读 · 2 评论 -
Combining Label Propagation and Simple Models OUT-PERFORMS Graph Networks
????文章目录1 前言2 问题定义3 Correct and Smooth3.1 Simple Base Predictor3.2 Smoothing final prediction with Prediction Correlation4 总结论文地址:https://arxiv.org/pdf/2010.13993.pdf源码:CorrectAndSmooth来源:ICLR, 2021关键词:Label Propagation, Transductive node classificat原创 2021-03-26 16:00:53 · 325 阅读 · 0 评论 -
DeepGCNs: Can GCNs Go as Deep as CNNs?
????文章目录1 前言2 问题定义3 DeepGCN3.1 Residual Learning for GCNs3.2 Dense Connections in GCNs3.3 Dilated Aggregation inn GCNs4. 总结论文地址:https://arxiv.org/pdf/1904.03751.pdf源码:deep_gcns_torch来源:ICCV, 2019关键词:GCNPoint Cloud Segmentation, Point Cloud Segmentati原创 2021-03-17 17:47:11 · 469 阅读 · 0 评论 -
Deep Residual Learning for Image Recognition
文章目录1 前言2 问题定义3 Residual Learning4. 方法总结论文地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7780459源码:deep-residual-networks来源:CVPR, 2016关键词:Residual Learning, Shortcut Connection1 前言该论文主要解决的深层神经网络的训练问题。随着网络的深度的增加,模型的效果反而变差了,论文提出了Resi原创 2021-03-15 20:43:40 · 240 阅读 · 0 评论 -
Inductive Representation Learning In Temporal Networks via Causal Anonymous Walks
文章目录1 前言2 问题定义3 CAW思路3.1 Causal Anonymous Walk3.1.1 Causality Extraction3.1.2 Set-based Anonymization3.2 Neural Encoding for Causal Anonymous Walks3.2.1 Encode W^\hat{W}W^3.2.2 Encode Su∪SvS_u \cup S_vSu∪Sv5 方法的优势/局限5.1 优势5.2 局限Reference论文地址:https://ar原创 2021-03-09 20:43:20 · 1083 阅读 · 1 评论 -
Attention is All you need
文章目录1 前言2 问题定义3 Transformer![在这里插入图片描述](https://img-blog.csdnimg.cn/20210307183434909.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L01paGFfU2luZ2g=,size_8,color_FFFFFF,t_70)3.1 Encoder and Decoder3.2原创 2021-03-07 18:42:43 · 217 阅读 · 0 评论 -
DySAT: Deep Neural Representation Learning on Dynamic Graph via Self-Attention Networks
文章目录1 前言2 问题定义2.1 dynamic graph3 DySAT思路3.1 Structural Self-Attention3.2 Temporal Self-Attention4 方法的优势与局限性4.1 优势4.2 局限性论文地址:http://yhwu.me/publications/dysat_wsdm20.pdf源码:DySAT来源:WSDM, 2020关键词:self-attention, representation learning, dynamic graphs原创 2021-03-02 16:52:09 · 5226 阅读 · 4 评论 -
Inductive and Unsupervised Representation Learning on Graph Structured Objects
文章目录1 前言2 问题定义3 SEED思路3.1 Sampling3.2 Encoding3.3 Embedding Distribution4 方法的优势与局限性4.1 优势4.2 局限性论文地址:https://openreview.net/pdf?id=rkem91rtDB源码:SEED-reimplementation来源:ICLR, 2020关键词:unsupervised learning, graph representation,1 前言该论文主要解决的是图结构数据的无监督原创 2021-03-01 23:46:46 · 285 阅读 · 1 评论 -
Contrastive and Generative Graph Convolutional Networks for Graph-based Semi-Supervised Learning
文章目录1 前言2 问题定义3 思路3.1 Semi-Supervised Contrastive Learning}3.2 Graph Generative Loss3.3 Model Training4 方法的优势与局限性4.1 优势4.2 局限性论文地址:https://arxiv.org/pdf/2009.07111.pdf来源:AAAI, 2021关键词:semi-supervised learning, GCN, Contrastive Learning, GCN1 前言该论文主要原创 2021-03-01 22:25:27 · 592 阅读 · 0 评论 -
Temporal Graph Networks for Deep Learning on Dynamic Graphs
文章目录1 前言2 问题定义3 TGN思路3.1 Memory3.2 Message Function3.3 Message Aggregator3.5 Memory Updater3.5 Embeddings4 方法的优势与局限性论文地址:https://arxiv.org/pdf/2006.10637.pdf来源:ICML 2020 Workshopslides:tgn源码地址:tgn关键词:graph representation, temporal graph1 前言该论文主要解决原创 2021-03-01 15:31:44 · 1042 阅读 · 0 评论 -
EvolveGCN: Evolving Graph Convolutional Networks for Dynamic Graphs
文章目录1 前言2 问题定义3 EvolveGCN思路4 方法的优势与局限性4.1 优势4.2 局限性论文地址:https://arxiv.org/pdf/1902.10191来源:AAAI, 2020源码地址:EvolveGCN关键词:Dynamic Graphs, GCN1 前言该论文解决的是不断进化(evolve)的graph的表征问题。以往的方法主要将结点的表征通过RNN来学习不断进化的graph,这种方法在学习表征时需要知道结点在所有时间区间上的变化(相当于是transductiv原创 2021-03-01 14:04:44 · 1773 阅读 · 0 评论 -
Gated Graph Sequence Neural Networks
文章目录1. 前言2. GG-NN3. GGS-NNReferences论文地址:https://arxiv.org/abs/1511.05493源码地址:ggnnslides:ggnn-talk关键词:RNN, Graph Sequential tasks1. 前言这篇论文提出了一种基于GRU1的GNN,能够进行输出单个值的任务(如结点分类、图分类等),也能完成序列输出的任务(如最短路、欧拉环等)。论文中使用bAbI2(bAbI是Facebook AI推出的文本理解/推理任务生成器)任务和原创 2020-12-28 22:48:03 · 1358 阅读 · 0 评论 -
How powerful are graph gnns?
文章目录1. 前言2. GNNs的区分能力2.1 MEAN Learns Distributions2.2 MAX Identity "Skeleton"References论文地址:https://arxiv.org/abs/1810.00826源码地址:powerful-gnns关键词:GNN, WL graph isomorphism test, GCN1. 前言论文对以往的GNN模型的表现能力(区分能力)进行了理论上的分析,主要针对不同aggregation 的特点进行了分析,并针对以原创 2020-12-28 22:35:57 · 306 阅读 · 0 评论 -
GraphRNN: Generating Realistic Graphs with Deep Auto-Regressive Models
文章目录1. 前言2. GraphRNN 的细节。References论文地址:https://arxiv.org/abs/1802.08773源码地址:GraphRNN关键词:RNN, Graph generation1. 前言论文提出了一个深度自回归(deep autoregressive)模型,用于图的生成。GraphRNN使用序列的生成概念对图的生产进行建模。为了定量地评估GraphRNN的性能,论文中使用MMD(Maximum Mean Discrepancy)的变体来衡量训练的图原创 2020-12-28 22:25:08 · 1602 阅读 · 3 评论 -
A Comprehensive Survey on Graph Neural Network
文章目录1. 前言2. GNNs分类2.1 RecGNNs2.2 ConvGNNs2.3 GAEs2.4 STGNNs3. GNNs应用3.1 Computer Vision3.2 Natural Language Processing3.3 Traffic3.4 Recommender system3.5 Chemistry3.6 Others4. GNNs模型评估5. 常用数据集6. 未来发展方向6.1 Model Depth6.2 Scalability trade-off6.3 Hetergenit原创 2020-12-28 22:07:57 · 414 阅读 · 0 评论 -
Adversarial Autoencoders
文章目录1. 前言2. AAE思路3. AAE的应用4. 方法解决的问题/优势5. 方法的局限性/未来方向References论文地址:https://arxiv.org/abs/1511.05644来源: ICLR, 2016作者: Alireza Makhzani ,Jonathon Shlens ,Navdeep Jaitly ,Ian Goodfellow ,Brendan Frey源码: AAE_pytorch关键词:GAN, Autoencoder, Generat原创 2020-12-28 21:52:54 · 1787 阅读 · 0 评论 -
Adversarial Autoencoders
\begin{center} \begin{tabular}{rp{16cm}lp{20cm}}%{rl} % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... 论文地址:& \href{https://arxiv.org/abs/1511.05644}{https://arxiv.org/abs/1511.05644} \\ 来源:& ICLR, 2016 \\ 作者:& Alireza...原创 2020-12-28 21:43:50 · 384 阅读 · 0 评论 -
Auto-Encoding Variational Bayes
文章目录1. 前言2. 变分下界3. 方法解决的问题/优势}4. 方法的局限性/未来方向}论文地址:https://arxiv.org/abs/1312.6114来源:CoRR, 2013作者:Diederik P Kingma, Max Welling关键词:Variational Bayes, Auto-Encoding, Bayes Inference, Probalistic Model1. 前言论文为bayes概率图模型难以求解的问题提供了一种有效的思路,利用auto-encodi原创 2020-12-28 21:26:54 · 2777 阅读 · 1 评论 -
Deep Graph random Process for Relational-Thinking-based Speech Recognition
文章目录1. 前言2. 问题定义3. DGP 思路4. 实现细节4.1 Deep Graph Random Process}4.2 Coupling of Innumerable Percept Graphs}4.3 Inference and Sampling of Edges of Summary Graph}4.4 Learning5. 方法解决的问题/优势6. 方法的局限性/未来方向Reference论文地址:https://smcnus.comp.nus.edu.sg/wp-content/u原创 2020-12-25 20:51:28 · 403 阅读 · 1 评论 -
论文阅读:DeepWalk Online Learning of Social Representations
DeepWalk Online Learning of Social Representations[1]论文大纲问题定义贡献使用Deepwalk学习结点表征思路大概是这样的detail0:为什么可以将语言模型中的技术用在结点表征中?detail1:为什么最大化结点的共现率可以用来更新ϕ\phiϕ?detail2:Hierarchical tree?Deepwalk 伪代码参考文献论文大纲Introduction (介绍了论文的任务,概括了论文的工作)Problem Definition(定义了L原创 2020-08-01 19:45:40 · 590 阅读 · 0 评论