- 博客(3)
- 收藏
- 关注
原创 【阅读笔记】Reasoning With Neural Tensor Networks for Knowledge Base Completion
前言论文地址PosterAbstract这篇论文里,作者介绍了一个适用于推理两个实体关系的神经网络(Neural Tensor Network).相比之前的工作要么将实体表示成离散的最小单元或者是单个的实体向量,而这篇论文实验表明当实体被表现成他们词向量的平均值时实验的效果会提升。最后,论文证明当这些词向量通过大量非监督学习的语料学习结果作为参数的初始化值,对于预测知识库里两个实体是否有关...
2019-01-12 20:24:43 7813 20
原创 Tensorflow:实战Google深度学习框架 学习笔记(三):MNIST数字识别
Tensorflow 学习笔记(三):MNIST数字识别前言MNIST手写数字识别是一个非常经典入门的深度学习的实验,跟着《 Tensorflow:实战Google深度学习框架》第五章学习如何利用Tensorflow框架完成这个实验。哇,我发现每章内容知识点繁多,如果只是刷一遍不用也忘了,决定以小节为单位慢慢刷书,后面要用到哪个再慢慢看。最近还有各种算法要学,得赶快投入学理论知识。慢慢更...
2019-01-04 21:59:46 472
转载 神经网络激活函数的推荐-ReLU
前言:写Tensorflow实验发现,使用Relu激活函数的模型笔Sigmoid要优化速度快,并且结果更好一点。找了几个很好的解释,收藏呢!1,2,3,感谢他们付出。总结就是:以后激活函数都用Relu。正文下面正文内容转自博客 ReLU为什么比Sigmoid效果好 附:双曲函数类似于常见的(也叫圆函数的)三角函数。基本双曲函数是双曲正弦"sinh",双曲余弦...
2019-01-04 17:07:31 601
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人