论文学习(翁荣祥毕业论文)

基础知识

1.存在的问题:双语数据的规模与神经网络的参数规模的不平衡,导致现有的神经机器翻译模型生成的向量表示无法包含有足够语言信息。
2.基于规则的翻译方式->统计机器翻译(步骤如
https://www.cnblogs.com/wuseguang/p/4072920.html

1.语料预处理,生成双语分词之后的文件。2.词对齐。3.短语抽取。4.计算短语概率。5.最大熵调序。)->神经机器翻译。
3.神经机器翻译模型结构:
编码器-解码器(常见神经网络:RNN,CNN,SAN(自注意力神经网络(Self-Attention Network)))

基于循环神经网络的神经机器翻译模型:
使⽤⼀个双向循环神经⽹络构成的编码器将给定的源端句⼦的词向量(Word Vector)编码成⼀组向量表⽰并且将这组隐层状态表⽰合成⼀个初始状态(Initial State)输⼊到解码器中,⽽解码器使⽤⼀个单向的循环神经⽹络进⾏逐词解码。这其中每输出⼀个⽬标词之前都会通过注意⼒机制来对源端编码成的状态表⽰进⾏计算,从⽽获取需要输出的⽬标词的在源端的信息。

具体模型架构见前面笔记
在这里插入图片描述

基于自注意力网络的神经机器翻译模型:
在这里插入图片描述

翻译质量评价:

BlEU:通过计算翻译结果中的N元文法(N-garm)和参考译文中的N元文法的匹配成功率来评估翻译质量。
具体计算方法:
B L E U = B P ∗ e x p ∑ n = 1 N w n l o g p n BLEU=BP*exp\sum^N_{n=1}w_nlogp_n BLEU=BPexpn=1Nwnlogpn
w n w_n wn:n元文法中的重要性?
B P BP BP:长度惩罚因子,避免生成的翻译结果过短。?
B P = { e 1 − r t           t ≤ r 1            t > r BP=\{^{1\ \ \ \ \\ \ \ \ \ \ t>r}_{e^{\frac{1-r}{t}\ \ \ \ \ \ \ \ \ t\le{r}}} BP={ et1r         tr1         t>r
p n = ∑ e ∈ T r a n s l a t i o n ∑ n − g a r m ∈ e C o u n t c l i p ( n − g r a m ) ∑ e ′ ∈ R e f e r a n c e ∑ n − g a r m ∈ e ′ C o u n t ( n − g r a m ) p_n=\frac{\sum_{e\in{Translation}}\sum_{n-garm\in{e}}Count_{clip}(n-gram)}{\sum_{e^{'}\in{Referance}}\sum_{n-garm\in{e^{'}}}Count(n-gram)} pn=eReferancengarmeCount(ngram)eTranslationngarmeCount

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值