- 博客(4)
- 资源 (1)
- 收藏
- 关注
原创 对比Attention的几种结构
前言之前看到几篇关于attention思想的应用文章,现在对比下其中的Attention具体结构上的区别。NMT by Jointly Learning to Align and TranslateEffective Approaches to Attention-based NMTShow, Attention and Tell: Neural Image Caption Gen...
2018-08-18 12:51:37 5279 5
翻译 注意力机制【译】
非常好的一篇关于注意力机制的博客,翻译以飨读者。 自从2015年深度学习和人工智能兴起以来,许多研究者开始对神经网络中的注意力机制开始感兴趣。这篇博客的目的是在更高维度的对深度注意力机制作解释,并且细化计算注意力的某些技术细节步骤。如果你想看更详细的内容,最近Cho写的review是不二选择。很遗憾的是,许多模型并不能直接拿来使用,仅有一小部分是有开源代码的。 Attention 涉及到...
2018-08-11 11:34:48 7289 4
原创 NMT:神经网络机器翻译
前言 SMT是在神经网络之前最主流的翻译模式,统计机器翻译。 NMT则是基于神经网络的翻译模式,也是当前效果最好的翻译模式。现在基于几篇paper来讲解下各个神经网络下的翻译模型。 NMT based RNN NMT based CNN Reference...
2018-08-05 16:41:15 26947 5
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人