Baolin Peng*, Chunyuan Li*, Pengcheng He*, Michel Galley, Jianfeng Gao (*等额贡献)
发音为“GPT-4-LLM”或“GPT-for-LLM”,图片由GLIGEN 生成
这是GPT-4-LLM的repo,在共享GPT-4生成的数据,以构建具有监督学习和强化学习的指令跟随LLM。回购包含:
- GPT-4 使用 Alpaca 提示生成的英文指令后续数据,用于微调LLM。
- GPT-4 使用 ChatGPT 从 Alpaca 翻译的中文提示生成的中文指令后续数据。
- 由GPT-4排序的比较数据,用于训练奖励模型。
- Answers on Unnatural Instructions Data from GPT-4以量化GPT-4和指令调整模型之间的大规程模型偏差。
使用和许可声明:数据仅供研究使用并获得许可。该数据集是 CC BY NC 4.0(仅允许非商业用途),使用该数据集训练的模型不应用于研究目的之外。