本文是LLM系列文章,针对《ROLELLM: BENCHMARKING, ELICITING, AND ENHANCING
ROLE
摘要
大型语言模型(LLM)的出现为角色扮演等复杂任务铺平了道路,角色扮演通过使模型能够模仿各种角色来增强用户交互。然而,最先进的LLM的闭源性质及其通用训练限制了角色扮演优化。在本文中,我们介绍了RoleLLM,这是一个用于基准测试、引出和增强LLM中角色扮演能力的框架。RoleLLM包括四个阶段:(1)100个角色的角色档案构建;(2) 用于角色特定知识提取的基于上下文的指令生成(Context Instruction);(3) 使用GPT(RoleGPT)进行口语风格模仿的角色提示;以及(4)用于微调开源模型以及角色定制的角色条件指令调整(RoCIT)。通过Context Instruction和RoleGPT,我们创建了RoleBench,这是第一个系统化、细粒度的角色扮演基准数据集,共有168093个样本。此外,RoleBench上的RoCIT产生了RoleLLaMA(英语)和RoleGLM(中文),显著增强了角色扮演能力,甚至实现了与RoleGP