神经网络机器翻译技术

1. 机器翻译所需要用到的神经网络结构是什么样的

encoder_decoder 是机器翻译所用到的神经网络结构,你也可以称它为seq2seq。encoder_decoder可以解决输入和输出不等长的问题。encoder可以输入转化为一个上下文向量c,再利用decoder可以对c进行解密得到输出序列。

下图显示了得到隐状态c的几种方式:

再得到隐状态c后,再利用RNN网络对c进行解码。解码过程如下图:

还有一种方式是将c作为每一步的输入,如下图:

注意力机制的引入

注意力机制引入的原因是当句子过长时,一个上下文c不能很好的区分一句话中每个词之间的不同含义。

在引入decoder机制后,解码器的结构变成了下图所示的样子

使用注意力机制后,每一个 c 会自动选取与当前所要输出的 y 最合适的上下文信息 。 具体来说,用 aij 衡量 Encoder 中第j 阶段的 hj和解码时第 i 阶段的相关性,最终 Decoder 中第 i 阶段输入的上下文信息 C来自于所高 hj 对aij 的加权之相 。以机器翻译为例(将中文翻译成英文),每一个c的具体计算方法如图。

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值