- 博客(2)
- 收藏
- 关注
翻译 SWIN TRANSFORMERv2论文翻译
扩大语言模型取得了令人难以置信的成功。它显着提高了模型在语言任务上的性能 [19、24、49、50、52、53],并且该模型展示了与人类相似的惊人的少镜头能力 [7]。自从拥有 3.4 亿个参数的 BERT 大型模型 [19] 以来,语言模型在几年内迅速扩大了 1000 多倍,达到 5300 亿个密集参数 [50] 和 1.6 万亿个稀疏参数 [24]。这些大型语言模型还被发现具有越来越强的小样本能力,类似于人类智能,可用于广泛的语言任务 [7]。另一方面,视觉模型的扩展一直滞后。
2023-05-04 22:04:24 909 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人