Tf2.0+基于注意力的神经机器翻译训练发布过程
本篇是人工智能、机器翻译的干货文章,面向从事人工智能的研发工程师和翻译领域的职业从业者。意在译员能更好的从计算机编程角度理解机器翻译的代码实现过程。同时也和机器翻译开发工程师共同分享源码的快乐。
实例是采用当下最新的tensorflow2.0+框架,实现transformer模型 Attention(注意力)、MultiHeadAttention(多头注意力)、位置嵌入、掩码、按层提取翻译结果、Flask服务发布。实例代码为完整代码,拷贝即可运行,如果有兴趣获得完整的.py代码请在公众号下留言,获得代码文
原创
2020-09-27 10:18:05 ·
786 阅读 ·
0 评论