注:attention model intution 用到了 bidirection RNN ,并减少了输出词对于输入词关注的长度,以提升计算的效果。
注: ... 先不生成
, 往回走的时候,a-left a-right 都有了,再从后到左逐一生成
。
注:第一个单词。
注:第二个单词。
注:attention model intution 用到了 bidirection RNN ,并减少了输出词对于输入词关注的长度,以提升计算的效果。
注: ... 先不生成
, 往回走的时候,a-left a-right 都有了,再从后到左逐一生成
。
注:第一个单词。
注:第二个单词。