《Language Models are Few-Shot Learners》
GitHub - openai/gpt-2: Code for the paper "Language Models are Unsupervised Multitask Learners"
GitHub - graykode/gpt-2-Pytorch: Simple Text-Generator with OpenAI gpt-2 Pytorch Implementation
GPT-2的目标旨在训练一个泛化能力更强的词向量模型,它并没有对GPT-1的网络进行过多的结构的创新与设计,只是使用了更多的网络参数和更大的数据集。