大模型发展背景
从专用模型转向通用大模型(使得机器从专才变为通才,也更像人类智能的表现形式)
书生·浦语大模型的体系
针对不同的需求可以在基础模型的进行微调优化,此外也可以根据自己的实际情况和任务需求选择适合的模型
书生·浦语大模型的亮点
- 好的模型首先离不开高质量,全面的且标注良好的数据。
- 超长上下文,推理数学代码能力提升,对话体验提升,工具调用能力升级(总结:吞吐数据量增大、计算和推理能力增强,人机交互体验提升,利用其他的软件工具提升自己的工作能力)
大语言模型的应用落地流程
关键在于任务难度、算力成本、参数微调和协调应用其他工具
数据:书生万卷1.0 (中文语料)书生万卷CC(2013-2023) 预训练:InternLM-Train(扩展性、兼容性好) 微调:XTuner,覆盖20系上所有显卡,增量续训(小领域的专业知识),有监督微调(对话问答)评测:OpenCompass(循环评测——提升评测结果的稳健性),CompassRank 是模型榜单,CompassKit 是评测工具(数据集、长文本能力、模型推理),CompassHub是评测社区(社区开放评测集) 部署: LMDeploy(方便模型更好的部署于GPU) 应用:AgentLego(智能体框架——利用大模型整合其他工具,创造一个解决实际问题的pipeline)
课程总结
- 目前国内大模型发展在中文能力上优于GPT
- 大模型的开发需要数据到应用部署的全流程体系的创建
- 大模型的推理能力是仍待发展的重点