论文阅读:预训练模型:过去,现在和未来 Pre-Trained Models: Past, Present and Future(上)


摘要:

BERT和GPT等大规模预训练模型(PTMs)最近取得了巨大的成功,成为人工智能领域的一个里程碑。由于训练前目标复杂,模型参数巨大,大规模ptm能够有效地从大量标记和未标记数据中获取知识。通过将知识存储到巨大的参数中,并对具体的任务进行微调,将丰富的知识隐式编码到巨大的参数中,可以使下游的各种任务受益,这一点已经通过实验验证和实证分析得到了广泛的证明。现在人工智能社区的共识是采用ptm作为下游任务的骨干,而不是从头开始学习模型。在本文中,我们深入研究了前训练的历史,特别是它与迁移学习和自我监督学习的特殊关系,以揭示前训练在人工智能发展光谱中的关键地位。此外,我们全面回顾了PTMs的最新突破。这些突破是由计算能力的激增和数据可用性的增加所驱动的,面向四个重要方向:设计有效的架构,利用丰富的上下文,提高计算效率,以及进行解释和理论分析。最后,讨论了PTMs的一系列开放性问题和研究方向,希望本文的观点能对今后的经颅磁刺激研究起到启发和推动作用。

一、简介

前面的都是彩虹屁,不用怎么看。

“罗马不是一天建成的”——PTMs在取得最新的成功之前也经历了很长时间的发展。为此,我们试图追溯PTMs的发展历史,绘制其在人工智能光谱中的位置,从而清晰地理解PTMs的核心研究问题。然后,我们介绍各种最新的ptm的细节,以下是目前正在推进的四项重要内容,包括设计有效的架构,利用丰富的上下文,提高计算效率,以及进行解释和理论分析。通过将PTMs的当前发展与历史背景相结合,我们讨论了几个有待解决的问题,并总结了PTMs未来的发展方向。希望本文的工作能够对PTMs的进一步发展起到一定的推动作用。在下面,我们将介绍预训练的背景在第二节和第三节,在第四节讲下PTMs模型架构,在第五节的用多源异构数据使用PTMs,在第六节计算效率优化的PTMs,在第七节进行理论分析。最后,我们将简要讨论一系列开放的问题和未来更好的PTMs的有希望的方向。

二、Background

虽然有效的PTMs最近得到了研究人员的关注,但预训练并不是一种新的机器学习工具。事实上,作为一种典型的机器学习范式,预训练已经发展了几十年。在本节中,我们将介绍AI领域中预培训的发展,从早期的监督式预培训到目前的自我监督式预培训,从而对PTMs的背景有一个简单的了解。

2.1 Transfer Learning and Supervised Pre-Training

预训练的早期努力主要涉及迁移学习。迁移学习的研究很大程度上是由于人们可以依靠以前学习的知识来解决新的问题,甚至取得更好的结果。更正式地说,迁移学习的目的是从多个源任务中获取重要的知识,然后将这些知识应用到目标任务中。

在迁移学习中,源任务和目标任务可能具有完全不同的数据域和任务设置,但处理这些任务所需的知识是一致的。因此,选择一种可行的方法将知识从源任务转移到目标任务是很重要的。为此,各种预训练方法被提出作为源任务和目标任务之间的桥梁。具体来说,这些方法首先对多个源任务的数据进行预训练,对知识进

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值