- 博客(19)
- 收藏
- 关注
转载 一阶相似度和二阶相似度
作者:吹洞箫饮酒杏花下链接:https://www.jianshu.com/p/7eace05ab2fb来源:简书输入:网络图 输出: 节点的向量表示 适用范围:大规模(百万的顶点和数十亿的边)的任意类型的网络:有向或无向、有权或无权。文章中只提到可以扩展到规模很大的网络,小规模网络应该也可以。First-order Proximity(一阶相似度):两个顶点之间的自身相似(不考虑其他顶...
2019-03-22 16:52:00 5778
转载 TransR/CTransR论文:学习实体和关系嵌入的知识图谱补全
摘要:知识图谱补全以执行实体间的链接预测为目标。本文,我们考虑知识图谱嵌入方法。近年来,一些模型像TransE和TransH通过把关系作为从头实体到尾实体的翻译来建立实体和关系嵌入。我们注意到这些模型仅仅简单地假设实体和关处于相同的语义空间。事实上,一个实体是多种属性的综合体,不同关系关注实体的不同属性,仅仅在同一个空间下对它们进行建模是...
2019-03-15 17:17:35 1575
转载 TransH 算法详解
https://blog.csdn.net/MonkeyDSummer/article/details/85273843
2019-03-15 14:18:53 3128
转载 Trans 系列中 Mean rank、Hit@10个人理解
版权声明:本文为博主原创文章,水平有限,转载请注明出处。 https://blog.csdn.net/coolerzZ/article/details/81704756 </div> <link rel="stylesheet...
2019-03-15 14:16:37 3001
转载 词嵌入来龙去脉 word embedding、word2vec
文章目录0词嵌入来龙去脉1 NLP的核心关键:语言表示(Representation)2 NLP词的表示方法类型2.1词的独热表示one-hot representation2.2词的分布式表示distributed representation3 NLP语言模型4 词的分布式表示4.1基于矩阵的分布表示4....
2019-03-12 17:49:09 506
转载 修改jupyter notebook的默认存储路径
1.在桌面创建一个jupyter的快捷方式:2.找到快捷方式,右击——属性;把里面的%USERPROFILE%改掉换成你想要存储的路径(加上英文的双引号)3.点击应用,确定,重启jupyter notebook即可;参考:https://blog.csdn.net/qigenhuochai/arti...
2019-01-17 16:19:30 504
转载 Python中如何解决ImportError:No Module Named arcpy问题
Python是ArcGIS的脚本语言,ArcGIS安装时会安装ArcPy,即以成功的arcgisscripting模块为基础并继承了arcgisscripting功能进而构建的站点包,其目的是以高效实用的方式通过Python执行地理数据处理、空间分析等GIS的核心功能。但如果在ArcGIS安装时没有安装Py...
2019-01-17 15:40:51 5070
转载 jupyter notebook添加kernel
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012151283/article/details/54565467 </div> <div id="content_view...
2019-01-17 13:08:19 320
转载 strides=[1, 1, 1, 1]参数解释
def conv2d(x, W): return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') 在学习tensorflow看到卷积这部分时,不明白这里的4个参数是什么意思,文档里面也没有具体说明。strides在官...
2019-01-16 19:51:31 2645
转载 sess.run(tf.global_variables_initializer()) 做了什么?
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/u012436149/article/details/78291545 </div> <div id="content_views" ...
2019-01-16 19:25:49 1611
转载 tensorflow---之accuracy.eval
eval() 其实就是tf.Tensor的Session.run() 的另外一种写法。你上面些的那个代码例子,如果稍微修改一下,加上一个Session context manager:with tf.Session() as sess: print(accuracy.eval({x:mnist.test....
2019-01-16 10:08:07 1020
原创 axis=0代表跨行(down),而axis=1代表跨列(across)
是axis=0代表跨行(down),而axis=1代表跨列(across)
2019-01-06 15:18:05 810
原创 python 里 np.array 的shape (2,)与(2,1)的分别是什么意思,区别是什么?
numpy.ndarray.shap是返回一个数组维度的元组。 (2,)与(2,1)的区别如下:ndarray.shape:数组的维度。为一个表示数组在每个维度上大小的整数元组。例如二维数组中,表示数组的“行数”和“列数”。ndarray.shape返回一个元组,这个元组的长度就是维度的数目,即ndim属性。一般情况下:[1,2]的shape值(2,),意思是一维数组,数组中有2个元素。...
2018-12-29 15:25:35 1901
转载 为什么用交叉熵做损失函数
版权声明:本文为博主原创文章,转载请附上博文链接! https://blog.csdn.net/huwenxing0801/article/details/82791879 </div> <div id="content_vi...
2018-12-29 13:55:26 357
转载 词嵌入来龙去脉
版权声明:本文为博主原创文章,转载请注明转自 Scofield's blog[http://blog.csdn.net/scotfield_msn] https://blog.csdn.net/Scotfield_msn/article/details/69075227 </div> <link re...
2018-12-24 16:12:45 562
转载 门控循环单元(GRU)的基本概念与原理
LSTM&nbsp;通过门控机制使循环神经网络不仅能记忆过去的信息,同时还能选择性地忘记一些不重要的信息而对长期语境等关系进行建模,而&nbsp;GRU&nbsp;基于这样的想法在保留长期序列信息下减少梯度消失问题。本文介绍了&nbsp;GRU&nbsp;门控机制的运算过程,更详细的内容请查看原论文。 在本文...
2018-12-20 10:17:29 5014
转载 tf的softmax交叉熵计算中的logits的含义
tf.nn.softmax_cross_entropy_with_logits函数是TensorFlow中常用的求交叉熵的函数。其中函数名中的“logits”是个什么意思呢?它时不时地困惑初学者,下面我们就讨论一下。 tf.nn.softmax_cross_entropy_with_logi...
2018-12-13 12:20:49 655
转载 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/mao_xiao_feng/article/details/53382790 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到...
2018-12-13 12:11:22 119
转载 交叉熵
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/tsyccnh/article/details/79163834 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用...
2018-12-12 16:28:24 134
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人