transformer在翻译时的实际做法
transformer的核心是self-attention,self-attention可参考:图解transformer李宏毅老师的transform一、机器翻译对于机器翻译而言,分为源语言与目的语言(如英文与中文)对源语言建立词典,大小为src_vocab_size (包括padding)对目标语言建立词典,大小为tgt_vocab_size (包括padding)在词典中对词进行排序(放好位置就行),按照下标给词一个数字表示(0一定表示padding,得规定好)训练集为源语言与目
原创
2020-12-23 14:42:50 ·
1456 阅读 ·
1 评论