深度学习
宝石男孩
这个作者很懒,什么都没留下…
展开
-
Network Embedding总结:deepwalk、node2vec、struct2vec、LINE、SDNE
目录deepwalknode2vecstruct2vecLINEdeepwalk模型:随机截断游走+skipgram+层级softmax整个过程:输入:图的边集和点集使用随机游走来获得结点序列使用skip-gram算法来获得结点表示使用层级softmax来优化目标函数获得输出:结点的潜在表示具体算法:总结:没有一个专门为网络嵌入设计的目标函数、使用二阶相似性(游走序列)来考虑两个结点的相似性。疑问:两个结点的相似度是怎么样比较出来的?(文中只提到了根据节点计算上下文序列的概率原创 2020-12-03 16:16:45 · 1315 阅读 · 0 评论 -
node2vec:Scalable Feature Learning for Networks论文阅读笔记
摘要虽然近期的大型表征学习已经在通过学习特征本身来自动化预测方面取得了重要的进步,但是目前的特征学习方法不能够很好地捕捉到网络中多变的连接关系。本文提出的node2vec用于学习网络中的节点表示,将节点映射到低维特征空间。相比于前人的工作,使用了随机游走+灵活性(关于网络邻居的定义),在探索邻居时加入灵活性是学习得更好的关键。关键词信息网络,特征学习,节点嵌入,图表示引言网络任务大多涉及两类任务:节点分类和边的关系预测。任何监督学习算法都需要大量独立的、分布的特征,所以必须为节点和边构造特征向量。原创 2020-10-20 22:48:40 · 388 阅读 · 0 评论 -
DeepWalk:Online Learning of Social Representations论文阅读笔记
摘要文章提出的Deepwalk结合了自然语言处理模型和无监督特征学习(或者深度学习)的技术,将词序思想用到图上,利用随机截断游走算法获得的局部信息,将游走序列看成词序,来学习潜在表示。实验证明:deepwalk is better:将F1规范提高到10%以上,和其他先进的方法相比,少用了60%的数据就达到了一样的效果(甚至更好)。Deepwalk也是可扩展的(一种在线学习算法),可以扩展到现实中大型的高维网络。关键词社交网络,深度学习,潜在表示,半监督学习,网络分类,在线学习1. 引言数据稀疏原创 2020-10-20 20:44:32 · 455 阅读 · 1 评论 -
LINE:Large-scale Information Network Embedding论文笔记
论文要解决的问题是嵌入大信息网络到低微向量空间,然而大多数现存的图嵌入方法不能扩展到有几百万个结点的真实世界网络。因此,提出了一种新颖的网络嵌入方法:LINE,这种方法适合任何类型的信息网络:有向无向图或者加权图。这个方法优化了一个目标函数(既保留了局部结构和全局的网络结构)使用边采样算法用来处理随机梯度下降算法的限制,同时提高效率。基于经验来进行的实验证明了LINE在各种真实信息网络中的效果。这个算法是有效的,可以在一台机器上花费几小时就学习有几百万个顶点和边的网络嵌入。原创 2020-10-10 11:31:00 · 231 阅读 · 0 评论 -
导入torch和torchvision出错:proposals_x1 = proposals[:, 0].unsqueeze(1) ~~~~~~~~~ <---
import torchimport torchvision报错信息如下:在import torchvision这行就出错了!raise NotSupportedError(base.range(), "slicing multiple dimensions at the same time isn't supported yet")torch.jit.frontend.NotSupportedError: slicing multiple dimensions at the same ti.原创 2020-08-24 23:38:24 · 568 阅读 · 2 评论 -
Windows10+CUDA9.2+CUDNN配置pytorch(GPU)(花了两天时间走了不少坑)
Windows10+CUDA9.2+CUDNN配置pytorch(花了两天时间走了不少坑,即使现在已经晚上两点过了,但还是把这两天的总结一下)环境说明Windows10Python3.6.5CUDA9.2.217pycharm最后安装的版本anaconda3cuda_9.2.148cudnn-9.2-windows-7.2.138步骤因为之前已经配置好了python的环境(这里不说明安装配置python环境等):anaconda3安装(这个很简单,原创 2020-08-09 03:06:25 · 2604 阅读 · 4 评论