论文阅读
文章平均质量分 83
我咋就看不懂
这个作者很懒,什么都没留下…
展开
-
【转载】岭回归(L2)、lasso回归(L1)、ElasticNet讲解
https://www.cnblogs.com/mantch/p/10242077.html转载 2021-01-22 14:41:53 · 150 阅读 · 0 评论 -
GCN 学习 Simple and Deep Graph Convolutional Networks
文章目录一、Introduction二、ResNet的引入什么是Resnet本文方案GCNII 模型初始残差连接恒等映射迭代收缩阈值参考一、Introduction本次阅读文章为升级版GCN,使用两种技术即初始残差和恒等映射来缓解过度平滑即梯度爆炸或缺失的问题。这种深度GCNII模型在半监督和完全监督任务上的性能优于最新方法。虽然GCN在后续的升级中取得了比较优越的性能,但是由于过度平滑的问题,大多数目前的GCN模型都是浅层的。最近的模型,例如GCN和GAT,在两层模型取得了非常好的性能,但这样的浅原创 2021-01-17 23:56:13 · 1642 阅读 · 0 评论 -
GCN学习 GRAPH ATTENTION NETWORKS
最近需要用的GAT的中心节点周围节点分配权重的思想,不得不提到注意力Attention机制的重要性,因此阅读GAT。文章目录前言一、Introduction二、GAT Architecture输入和输出特征提取和注意力机制self-attention实际应用总结参考前言GCN模型可以分为频谱域和空间域两大类。应用较多的还是在频谱类,使用拉普拉斯矩阵借助图谱进行卷积操作。但是他也存在一些缺陷,比如依赖拉普拉斯矩阵,不能直接用于有向图,模型训练依赖整个图结构,且图结构必须保持静态,不能应用于动态图,原创 2021-01-17 02:06:05 · 920 阅读 · 0 评论 -
GCN学习 DROPEDGE: TOWARDS DEEP GRAPH CONVOLUTIONAL NETWORKS ON NODE CLASSIFICATION
阅读DropEdge,加深GCN,解决图神经网络无法加深的问题。文章目录一、Introduction图卷积网络是利用消息传递或者说聚合节点邻居的信以及自身的信息来获取节点的高阶特征。但是**过度拟合**和**过度平滑**是GCN进行节点分类的主要障碍。二、使用步骤1.引入库2.读入数据总结一、Introduction图卷积网络是利用消息传递或者说聚合节点邻居的信以及自身的信息来获取节点的高阶特征。但是过度拟合和过度平滑是GCN进行节点分类的主要障碍。二、使用步骤1.引入库代码如下(示例):原创 2021-01-16 23:51:48 · 1702 阅读 · 2 评论 -
改进版GCN 学习Simplifying Graph Convolutional Networks
本文是SGC(简化版GCN),主要通过连续去除非线性和在连续层之间的折叠权矩阵来减少GCN的复杂性。而且这些简化不会对准确性产生负面影响。在Reddit上比FastGCN产生两个数量级的加速。文章目录一、Introduction一、pandas是什么?一、Introduction简单来说,本文就是把非线性的GCN转换成一个简单的线性模型SGC,反复消除GCN层之间的非线性并将得到的函数折叠成一个线性变换来减少GCNs额外的复杂度。其实对于要求较低的应用来说,这是不必要的。一、pandas是什么?原创 2021-01-15 02:36:26 · 2556 阅读 · 2 评论 -
GCN学习:Attributed Graph Clustering via Adaptive Graph Convolution
阅读论文AGC,利用高阶结构信息来提升聚类的效果。本文从图信号处理角度来理解GNN,增强聚类效果。目标还是将节点划分成m个聚类。文章目录一、Introduction原理步骤二、算法提到了一些预备条件一阶图卷积一、Introduction近年来的几种图卷积的聚类方法在一些真实的属性网络上取得了良好的聚类性能。然而现有方法都是低阶的,只考虑每个节点的邻居,或者两个三个跳之外的节点,固定的图卷积模型忽略了真实的图的多样性,只考虑每个节点几跳之内的邻居,没有利用节点关系,忽略了深度。本文从两方面提出了一种原创 2021-01-14 17:27:09 · 1713 阅读 · 0 评论 -
GCN阅读 GeniePath: Graph Neural Networks with Adaptive Receptive Paths
本文是关于一种自适应感知路径的GNN GeniePath论文的笔记文章目录前言一、什么是感受野二、使用步骤1.引入库2.读入数据总结前言该神经网络适用于可扩展的,能够学习自适应感受路径的图神经网络框架,他定义在具有排列不变性的图数据上。排列不变性:指的是输入的顺序改变不会影响输出的值。(在图上体现的排列不变形可能就是节点的输入顺序。)一、什么是感受野在卷积神经网络中,感受野的定义是卷积神经网络每一层输出的**特征图(feature map)**上的像素点在原始图像上映射的区域大小。二原创 2021-01-14 00:59:46 · 970 阅读 · 0 评论 -
GCN阅读 SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
本文是对第三代GCN的论文的阅读笔记文章目录一、摘要三代GCN发展原文摘要二、IntroductionContribution三、Graph中的快速近似卷积引入切比雪夫多项式四、线性模型K=1:两个参数的模型进一步简化总结一、摘要在看这篇第三代GCN之前已经看过了前两篇初代GCN,可以看到传统GCN是一代一代发展而来的。GCN应用的思想也是由CNN而来的。在CNN中,卷积被定义成不同位置的特征检测器,卷积核是具备局部平移不变性的特征的,通过计算中心像素点以及相邻像素点的加权和来构成feature原创 2021-01-13 17:30:03 · 605 阅读 · 0 评论