Deep Learning
文章平均质量分 75
_PYX
这个作者很懒,什么都没留下…
展开
-
Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制)
A recent trend in Deep Learning are Attention Mechanisms. In an interview, Ilya Sutskever, now the research director of OpenAI, mentioned that Attention Mechanisms are one of the most exciting advan转载 2016-07-21 19:03:19 · 2052 阅读 · 0 评论 -
Understanding Convolutional Neural Networks for NLP(理解NLP中的卷积神经网络) 阅读笔记
什么是卷积? 每一次卷积相当于把低级的特征转换成更高级更抽象的特征 图片卷积的时候需要注意位置不变性和组合性,在NLP中则不需要,因为在图片中相近的像素语义也相近,但是在NLP中附近的词语语义却不同。什么是卷积? 每一原创 2016-07-19 15:39:03 · 1707 阅读 · 0 评论 -
Implementing a CNN for Text Classification in TensorFlow(用tensorflow实现CNN文本分类) 阅读笔记
基于tensorflow实现卷积神经网络文本分类数据和预处理 数据集:电影评论数据——Movie Review data from Rotten Tomatoes,包含5331个积极的评论和5331个消极评论,同时包含一个20k的词表 注意:数据集过小容易过拟合,可以进行10交叉验证原创 2016-07-19 15:06:32 · 9969 阅读 · 7 评论 -
Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制) 阅读笔记
什么是Attention Mechanisms(注意机制) 神经网络中的注意机制类似人类的视觉注意机制,人类视觉本质上看图片会聚焦在“高清晰度“的区域,同时也会感知周围“低清晰度”的区域,然后不断调整焦点 目前,注意机制和RNN结合大放异彩原创 2016-07-26 20:19:45 · 3019 阅读 · 0 评论 -
Tensorflow基本用法
基本用法 使用图(graph)表示计算任务,描述了计算过程 会话(Session)用于执行图,即执行计算任务, 使用tensor表示数据 变量(variable) 维护状态 通过 feed 和 fetch 可以为任何的操作(arbitrary operation) 赋值或者从中获取数据转载 2016-08-02 19:25:22 · 731 阅读 · 0 评论