MATLAB算法实战应用案例精讲-【神经网络】Transformer
2017年6月,Google在arxiv上发布了一篇非常经典的论文:Attention is all you need,提出了解决seq2seq问题的Transformer模型,用全Attention的结构代替了LSTM,在减少计算量和提高并行效率的同时还取得了更好的结果。目前,该模型已被广泛运用在机器翻译,问答系统,实体识别等各种任务。transformer在NLP的多个任务上取得了非常好的效果,可以说目前NLP发展都离不开transformer。
复制链接