预训练 (Pretraining) 1
文章目录
1.背景介绍
预训练(Pretraining)是深度学习中一种重要的训练范式,特别是在自然语言处理(NLP)和计算机视觉(CV)领域得到了广泛应用。预训练的核心思想是在大规模无标注数据上先进行自监督学习,学习数据的一般性特征表示,然后再在具体的下游任务上进行微调(Fine-tuning),从而提升模型的性能和泛化能力。
预训练的思想最早由 Geoffrey Hinton 等人在 2006 年的论文 “A Fast Learning Algorithm for Deep Belief Nets” 中提出,他们使用无监督的玻尔兹曼机(RBM)分层预训练深度神经网络,取得了很好的效果。此后,预训练技术不断发展,并在 NLP 和 CV 等领域取得了突破性进展,代表工作包括 word2vec、ELMo、GPT、BERT 等。
2.核心概念与联系
预训练涉及到以下几个核心概念:
- 自监督学习(Self-supervised Learning):一种不需要人工标注数据的学习方式,通过数据本身的信息自动构建监督信号。
- 迁移学