NLP之GPT-1:GPT-1的简介(两大意义/模型结构/三大创新点/两阶段/两大特点/为何单向/模型结构/训练过程)、安装和使用方法、案例应用之详细攻略
导读:
GPT-1:明确生成式+确定建模基本原理【NSP任务】+采用decoder-only Transformer架构+无监督预训练+监督微调:GPT-1先通过在无标签的数据上学习一个通用的语言模型,然后再根据特定任务进行微调。有12个都超过了当时的SOTA,并且多个任务效果提升明显。
目录
NLP之GPT-1:GPT-1的概述(两大意义/模型结构/三大创新点/两阶段/两大特点/为何单向/模型结构/训练过程)、安装和使用方法、案例应用之详细攻略
NLP之GPT-2:GPT-2的简介(大数据、大模型、灵感点)、安装和使用方法、案例应用之详细攻略
NLP之GPT-3:NLP领域没有最强,只有更强的模型—GPT-3的简介(本质、核心思想、意义、特点、优缺点、数据集、实际价值,模型强弱体现,开源探讨,GPT系列对比与总结)、安装、使用方法之详细攻略
AIGC:ChatGPT(一个里程碑式的对话聊天机器人)的简介(意义/功能/核心技术等)、使用方法(七类任务)、案例应用(提问基础性/事实性/逻辑性/创造性/开放性的问题以及编程相关)之详细攻略
AIGC之GPT-4:GPT-4的简介(核心原理/意义/亮点/技术点/缺点/使用建议)、使用方法、案例应用(计算能力/代码能力/看图能力等)之详细攻略
LLMs之GPT:《Improving Language Understanding by Generative Pre-Training》翻译与解读
1、GPT-1的概述:两大意义/模型结构/三大创新点/两阶段/两大特点
(1)、Q&A:GPT为何采用单向Transformer,既然已经确定通过上下文预测单词可以更准确,为何GPT还抛弃下文只通过上文预测单词呢?
2、GPT的模型结构:单向语言模型(对语义信息的建模能力有限,堆叠12个Transformer解码器结构子层)
3、GPT模型的整体运作流程:预训练过程(无监督)+微调过程(特定下游任务有监督的微调)