[Task02] NLP 学习attention和transformer
组队学习资料:https://github.com/datawhalechina/Learn-NLP-with-Transformers1.1 seq2seq应用:机器翻译、文本摘要、图像描述生成论文:https://papers.nips.cc/paper/2014/file/a14ac55a4f27472c5d894ec1c3c743d2-Paper.pdfhttp://emnlp2014.org/papers/pdf/EMNLP2014179.pdf接收的输入是一个(单词.
原创
2021-08-18 21:24:48 ·
218 阅读 ·
0 评论