![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习笔记
CoderZhangsM
这个作者很懒,什么都没留下…
展开
-
斯坦福CS224N学习笔记-10 机器翻译和注意力模型
本文介绍了神经机器翻译NMT的ED架构及原理,然后引入了Attention的概念,介绍了NMT中Attention机制的工作原理,最后介绍了Decoding过程中的几种方法。...原创 2020-07-18 12:16:54 · 316 阅读 · 0 评论 -
斯坦福CS224N学习笔记-9 机器翻译和高级神经网络LSTM
课程内容概述重要概念和公式回顾机器翻译机器翻译任务中的一些新颖的RNN模型GRU(Gated Recurrent Units)LSTM(Long Short-Term Memories)内容回顾下图是之前的课程所提到过的一些模型的损失函数。多层神经网络的前向传播和反向传播过程。RNN、交叉熵误差、批梯度下降机器翻译早期的机器翻译使用的都是基于规则的方法。后来在上世纪90年代开始,机器翻译的方法通常使用基于统计的方法,核心思想就是在平行语料库上学习一个概率模型。在后来深度原创 2020-07-08 17:26:42 · 578 阅读 · 0 评论 -
斯坦福CS224N学习笔记-8 RNN和语言模型
本次课程主要介绍了自然语言处理中的一些语言模型以及神经网络语言模型中常用的一种神经网络RNN。详细解释了RNN的原理、训练过程以及一些常见的问题,还介绍了一些RNN的扩展模型如双向RNN和深层RNN等。原创 2020-07-05 22:31:25 · 325 阅读 · 0 评论 -
斯坦福CS224N学习笔记-6 依存分析
本次课程主要介绍了句法分析中最经常使用的一种——依存分析,从描述语言结构入手引出依存文法和上下文无关文法,并进一步解释了依存分析的原理、经常使用的数据集以及一些实现方法。原创 2020-07-01 12:10:33 · 820 阅读 · 0 评论 -
斯坦福CS224N学习笔记-5 反向传播
本次课程主要介绍了反向传播的一些细节内容。老师用了4种方法来解释反向传播的过程细节来辅助理解公式推导。原创 2020-06-23 23:39:20 · 220 阅读 · 0 评论