用tensorflow搭建BiLSTM+Attention构成的seq2seq模型
用Attention层连接decoder_outputs和encoder_outputs,在attention中,通常将decoder_outputs参数放在前面,如此attention会更关注decoder_outputs。模型的效果并不是很好,accuracy只有20%不到,大多数测试中翻译也是错误的。估计是数据处理优化没做好,同时优化方法不够。关于BiLSTM的构建,只能应用于encoder编码器上,因为decoder解码器不能反向。2.类似这篇博客中的嵌套方法。来自于LSTM构建的模型。
原创
2023-11-23 10:59:30 ·
476 阅读 ·
0 评论