- 博客(3)
- 收藏
- 关注
原创 Transformer学习
基于 seq-to-seq 架构的transformer 模型可以完成 NLP领域研究的典型任务,如 机器翻译,文本生成等。同时由可以构建预训练语言模型,用于不同任务的迁移学习。
2023-09-25 10:56:49
60
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人