![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理
文章平均质量分 93
自然语言处理
大风车滴呀滴溜溜地转
为天地立心,为生民立命,为往圣继绝学,为万世开太平。
展开
-
[翻译] 图解Transformer
在上一篇文章中,我们了解了注意力机制——这是现代深度学习模型中普遍使用的方法,是一个有助于提高神经网络机器翻译性能的概念。在这篇文章中,我们将研究Transformer——一个使用注意力机制提高训练速度的模型。Transformer 在特定任务中的表现优于谷歌神经网络机器翻译模型,然而最大的好处在于 Transformer 是如何实现并行的。............翻译 2022-07-07 14:23:20 · 323 阅读 · 1 评论 -
[翻译] 可视化神经网络机器翻译模型(Seq2Seq模型的注意力机制)
Seq2Seq模型是深度学习模型,在机器翻译、文本摘要和图像字幕等任务中取得了很大的成功。谷歌翻译于 2016 年底开始在生产环境中使用这种模型。这些模型在两篇开创性论文中进行了解释(Sutskever et al., 2014, Cho et al., 2014)。然而,我发现要充分理解模型以实现它,需要解开一系列相互叠加的概念。我认为如果以视觉方式表达这些想法会更容易理解。这就是我在这篇文章中的目标。...翻译 2022-07-06 13:31:29 · 763 阅读 · 0 评论 -
斯坦福大学CS224N-深度学习与自然语言处理:课程1-笔记
斯坦福大学CS224N-深度学习与自然语言处理:课程1-笔记原创 2022-06-16 10:43:32 · 622 阅读 · 0 评论