lstm只能对输入生成固定长度的向量,不会对信息重要程度进行区分,对于过于长的语句,当要翻译的句子较长时,一个c可能存不下那么多信息,就会造成翻译精度的下降,而attention解决了这些问题。
lstm加入attention好处
最新推荐文章于 2024-05-20 09:24:31 发布
lstm只能对输入生成固定长度的向量,不会对信息重要程度进行区分,对于过于长的语句,当要翻译的句子较长时,一个c可能存不下那么多信息,就会造成翻译精度的下降,而attention解决了这些问题。