
北理工开源MindLLM-1.3B-Chat轻量模型
该团队收集了社区公开的中文指令数据,包括人工标注(OLCC)NLP数据模版转换(FireFly,pCLUE,xP3)和LLM生成(Alpaca-GPT-4,BELLE,COIG,MOSS,RefGPT-Fact-zh)多种数据构造方式。模型只计算后,下一个前的所有token的损失,即对于包含i轮对话的序列x1,y1,x2,y2,……,xi,yi,其中xi表示用户指令,yi表示期望的输出,训练目标是让模型基于历史对话x1,y1,x2,y2,……,xi预测输出yi。

















