-
RNN(递归神经网络)
当我们阅读这篇文章的时候,并不是每次都从头开始思考每个词每句话的意思,我们会自然而然地根据之前的语境(也即前面的词)去理解每个词、每句话。这就是说我们的想法是有持久性的。
传统的神经网络对于事件的时序性似乎没有什么好办法,比如现在要对电影中每个时间点发生的事件进行分类,传统的CNN并不会利用对电影先前时间的推理来得到后者的结果。
RNN解决了这个问题。它是具有循环的网络,允许信息的持续存在。
这张图不太好理解,可以把它展开来看:
过去几年中,RNN应有于好多问题都取得了令人难以置信的成功:语音识别、语言建模、翻译、图像字幕等等。这个列表还在继续。而这些成功的关键在于使用LSTM,这是一种RNN的变体,对于许多人物而言,LSTM的效果要比标准版的RNN好得多。几乎所有基于RNN取得的令人兴奋的结果都是用LSTM和它的微改实现的。
-
长期依赖问题
RNN的优势在于它能将先前的信息连接到当前任务,比如说先前的视频帧会影响到对当前帧的理解。
举一个语言建模的例子,我们考虑一个语言模型,尝试根据之前的单词预测下一个单词。e.g. “云在天空中”&#x