Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制) 阅读笔记
-
引言
-
什么是Attention Mechanisms(注意机制)
-
神经网络中的注意机制类似人类的视觉注意机制,人类视觉本质上看图片会聚焦在“高清晰度“的区域,同时也会感知周围“低清晰度”的区域,然后不断调整焦点
-
目前,注意机制和RNN结合大放异彩
-
-
注意机制可以解决什么问题?
-
以NTM(Neural Machine Translation)为例,主要的工作是把源语言句子通过RNN编码成一个向量,然后再通过RNN解码成其他语言的句子
-