图深度学习
文章平均质量分 85
Last_xuan1
这个作者很懒,什么都没留下…
展开
-
DGNN Survey
在图分析中,假设节点是会受其邻居的影响的(Inductive Bias),Message Passing 的设计是为了学习节点如何受其邻居的影响。学习动态图神经网络的动态变化,即学习动态图随时间演化的重复模式。动态图表示随着时间演变的图,不同类型的图演变是不一样的,有的变化得非常快而有的非常慢。起始节点 到 目标节点 的时间距离,是评估信息从起始节点流动到目标节点所需时间的度量。是很重要的,使用不同的图结构,对应的图神经网络算法不一样。是表示节点特征的矩阵,矩阵的每一行是一个节点的嵌入向量。原创 2023-07-29 19:53:03 · 352 阅读 · 0 评论 -
图嵌入 Node2Vec
设cic_ici表示随机游走中的第 i 个节点,cic_iciπvx\pi_{vx}πvx表示节点vvv和xxx之间未归一化的过渡概率,ZZZ是进行归一化的常数即从当前节点 v 到下一个节点 x 的条件概率等于πvxZZπvxπvx\pi_{vx}πvx怎么算往下看。原创 2023-04-07 10:40:35 · 539 阅读 · 1 评论 -
图嵌入 DeepWalk
通过神经网络训练得到的节点向量是低维的、元素值是实数(连续值),且可进行相似度的度量,可以反应节点间的关系。分层 Softmax 如图,构建一颗二叉树,其中每个叶子节点对应一个词,非叶子结点是一个 LR 分类器,LR 在这里的应用就是判断在当前节点要走左子树还是右子树,其输出的值在当前节点往左走或右走的概率。由于此树从根节点的分类器到叶子节点的编码是唯一的(路径是唯一的),路径上每个 LR 预测概率之积,就可以视为在当前输入词的词向量下,得到的输出。当词表非常大的时候,Softmax 回归将会非常耗时。原创 2023-04-05 16:56:31 · 417 阅读 · 0 评论 -
图嵌入前篇之词嵌入模型 Wrod2Vec
设每个词对应的词向量矩阵 C,输入的多个词的 one-hot 向量拼接为 x,输入到隐藏层的权重矩阵为w,偏置bias为 b,则前向传播表示为为:softmax(w1(xC) + b)设定语料库中词的个数是 v,对每个词进行 one-hot 编码,得到每个词对应的编码是 1×v维的;假设给定 x 个词,预测下一个出现的词,那么就先根据这 x 个词的独热编码乘以 C,得到对应的 x 个词向量。会出现的词,如给定 “他”,“是”,“一个”,预测下一个会出现的词的概率。:根据给定的词序列,预测。原创 2023-04-03 16:01:40 · 346 阅读 · 0 评论