- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 使用attention机制的seq2seq模型实现论文翻译
1、概述 本文是关于attention-seq2seq模型实现中文到英文的翻译。论文的核心gru作为seq2seq模型的基本单元。基本翻译效果如下图所示: 2、模型结构 整体模型结构如下图所示: 相关数学公式如下图所示 相关模型说明: FC = 全连接层(dense layer) EO = 编码器(encoder)输出 H = 隐藏状态 X =解码器(decoder)输入 相关公式的模型...
2018-12-04 16:21:31 1799 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人