自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

笔记

个人笔记,欢迎交流!

  • 博客(3)
  • 收藏
  • 关注

原创 【阅读笔记】Reasoning With Neural Tensor Networks for Knowledge Base Completion

前言论文地址PosterAbstract这篇论文里,作者介绍了一个适用于推理两个实体关系的神经网络(Neural Tensor Network).相比之前的工作要么将实体表示成离散的最小单元或者是单个的实体向量,而这篇论文实验表明当实体被表现成他们词向量的平均值时实验的效果会提升。最后,论文证明当这些词向量通过大量非监督学习的语料学习结果作为参数的初始化值,对于预测知识库里两个实体是否有关...

2019-01-12 20:24:43 7813 20

原创 Tensorflow:实战Google深度学习框架 学习笔记(三):MNIST数字识别

Tensorflow 学习笔记(三):MNIST数字识别前言MNIST手写数字识别是一个非常经典入门的深度学习的实验,跟着《 Tensorflow:实战Google深度学习框架》第五章学习如何利用Tensorflow框架完成这个实验。哇,我发现每章内容知识点繁多,如果只是刷一遍不用也忘了,决定以小节为单位慢慢刷书,后面要用到哪个再慢慢看。最近还有各种算法要学,得赶快投入学理论知识。慢慢更...

2019-01-04 21:59:46 472

转载 神经网络激活函数的推荐-ReLU

前言:写Tensorflow实验发现,使用Relu激活函数的模型笔Sigmoid要优化速度快,并且结果更好一点。找了几个很好的解释,收藏呢!1,2,3,感谢他们付出。总结就是:以后激活函数都用Relu。正文下面正文内容转自博客 ReLU为什么比Sigmoid效果好 附:双曲函数类似于常见的(也叫圆函数的)三角函数。基本双曲函数是双曲正弦"sinh",双曲余弦...

2019-01-04 17:07:31 601

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除