- 博客(1)
- 收藏
- 关注
原创 [Task02] NLP 学习attention和transformer
组队学习资料:https://github.com/datawhalechina/Learn-NLP-with-Transformers1.1 seq2seq应用:机器翻译、文本摘要、图像描述生成论文:https://papers.nips.cc/paper/2014/file/a14ac55a4f27472c5d894ec1c3c743d2-Paper.pdfhttp://emnlp2014.org/papers/pdf/EMNLP2014179.pdf接收的输入是一个(单词.
2021-08-18 21:24:48 218
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人