![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NRL
wang2008start
这个作者很懒,什么都没留下…
展开
-
知识图谱与深度学习_biji
深度学习是分布式表示,知识图谱是符号表示利用已有知识图谱自动标注大规模数据的思想叫远程监督知识图谱表示学习:基于复杂关系建模TransR、CTransR基于关系路径建模PTransE基于属性关系建模融合实体描述融合层次类型信息 (实体在不同类型时有不同的知识表示,对各个实体的投影矩阵不同,投影矩阵的构建受到实体层次类型指导)知识的自动获取:基于选择性注意力机制基于关系层次注意力机制(层次注意力机制在关系层次上逐层为包含同一实体对的实例进行权重计算)基于注意力的多语言关系抽取(使用原创 2020-10-31 20:17:51 · 937 阅读 · 2 评论 -
图卷积神经网络_biji
图卷积神经网络 卷积谱域方法ChebyNet 的改进空间域方法GraphSAGE的方法GCN的方法GAT卷积卷积是一种积分,是一种运算,是一种信号处理,结果比原来的信号更加平滑。spectral methods:谱域方法,通过傅立叶变化到谱域,在谱域进行卷积运算,在通过傅立叶变换的逆回到空间域。spatial methods:空间域方法,在空间上直接使用卷积,遇到的问题是每个节点的邻居区...原创 2020-04-05 20:34:12 · 514 阅读 · 0 评论 -
Heterogeneous Graph Neural Networks for Malicious Account Detection_biji
实现方案,一周前六天是训练数据,第七天为测试数据。用的是GCN的思想,图里有账号和设备,(基于规则的主要是用类似于图的二度好友计算,用账号和设备两种节点,计算得到账号和账号的关系),用有标注的数据的好处是可以用AUC、F1评测模型效果。...原创 2019-10-15 11:21:19 · 563 阅读 · 0 评论 -
GraphSAGE_biji
Graph SAGE:工业应用,是目前所有工业上图模型的雏形。归纳式学习,可以泛化到没有未参与训练的节点上。卷积部分可以有很多种,比如平均,pooling,lstm聚合,以及GCN聚合等。GraphSAGE(Graph SAmple and aggreGatE)框架,工业应用,附带python 开源实现。归纳式学习,可以泛化到没有未参与训练的节点上。卷积部分可以有很多种,比如平均,pooling...原创 2019-09-08 23:31:49 · 559 阅读 · 0 评论 -
LINE-biji
LINE: Large-scale Information Network Embedding比较早的一篇针对 Graph 数据结构进行 Embedding 表示学习的方法,主要对边进行建模,由于两个节点间的直接相连关系表达的信息有限,这里增加了二阶关系(二度关系)作为补充,将节点的关系从一阶增加到了二阶。Loss 是建立在概率分布和经验分布的 KL 距离上的。存在的问题,实际用户关系中,一阶...原创 2019-08-30 16:32:15 · 116 阅读 · 0 评论 -
Deep Neural Networks for Learning Graph Representations——paper 笔记
和基于 SVD 的降维(将原始的高维空间通过线性变换隐射到低维空间上)不同,深度神经网络,比如 stacked auto-encoders 学习到的映射都是高度非线性的。论文开头,通过介绍 Deepwalk,说明如何将节点的表示转化成线性表示。 展示两种word 向量表示方法:1,负采样的skip-gram和基于PPMI矩阵的矩阵分解。矩阵分解,利用词和词的共现矩阵来产生词向量表示,主要缺...原创 2018-07-31 15:52:29 · 2373 阅读 · 1 评论 -
Structural Deep Network Embedding——paper 笔记
简述论文思想:利用节点之间的关系 拉普拉斯矩阵 学习局部结构信息 ,描述图的一阶相似性;利用 AutoEncoder encoder和decoder的输入输出的差异学习图的整体结构信息,描述图的二阶相似性。...原创 2018-07-31 15:52:05 · 723 阅读 · 0 评论 -
CANE: Context-Aware Network Embedding for Relation Modeling——paper 笔记
清华的论文,思想:除了考虑structure因素,还考虑context因素,以及s和c的相互作用,同时引入了attention机制。Context-free Embedding: 向量表示固定,不会随上下文信息的变化而改变。Context-aware Embedding: 向量表示不固定,会随上下文信息的变化而变化。比如,对于一条边,CANE可以学习到V_u 和 U_v。 ...原创 2018-07-27 00:53:46 · 655 阅读 · 0 评论