观看了由书生·浦语社区贡献者汪周谦带来的《书生·浦语大模型全链路开源开放体系》的介绍,熟悉了书生·浦语大模型及其工具链。
视频链接:https://www.bilibili.com/video/BV18142187g5/
官网:https://internlm.intern-ai.org.cn/
可访问以下链接报名第三期书生大模型实战营: https://www.wjx.cn/vm/PvefmG2.aspx?sojumpparm=openmmlabbz
这是教程网址 :https://github.com/InternLM/Tutorial
过去一年间,书生浦语打通了全链路,在数据收集、标注,模型训练、微调、评测,基于模型的agent,rag,搜索引擎,以及AI应用的部署都进行了方案实现以及开源,以持续的高质量开源赋能创新。
书生大模型(InternLM)性能天梯
可以看出InternLM2.5的原生推理性能提升20%,短期记忆能力也十分出色。GPT4-o模型的上下文只有128K,InternLM2.5相较于GPT4-o模型有十倍量级,也具有出色的自主规划和搜索完成复杂任务的能力。
在核心设计思路中,是以数据质量驱动模型性能优化。
基于反馈的数据生成,换而言之就是基于人类反馈的强化训练(有监督的训练),模型生成多个结果,人类给这多个结果进行满意度的排序,从而使模型在未来版本更容易生成符合人类要求的答案。如果只做相似度对齐的训练不一定能使人类满意。这种数据生成最大的痛点是标注,目前书生浦语也开源了label LLM的开源项目,可以通过这个项目很方便的对NLP任务,包括这种排序任务进行很方便的标注。