听完嘉宾的介绍后,全链路这个特点很明显地展现了出来。书生浦语在大模型的上下游领域都做出了自身的贡献。下面来列举一二:
数据(书生·万卷):2TB数据,涵盖多种模态与任务
预训练(InternLM-Train):并行训练,极致优化,速度达到3600tokens/sec/gpu
微调(XTuner):支持全参数微调,支持LoRA等低成本微调
部署(LMDeploy):全链路部署,性能领先,每秒生成2000+ tokens
评测(OpenCompass):方位评测,性能可复现100套评测集,50万道题目
应用(Lagent AgentLego):支持多种智能体,支持代码解释器等多种工具
其中个人比较感兴趣的主要是部署,测评和应用:
应用方面最火的应该就是Agent和多模态了。比尔·盖茨曾发过一篇长文,里面如此评价Agent:“一个对科技行业的冲击波”、“一场自‘输入命令到点击图标’变革之后计算机领域的最大变革”。当从单纯的处理基于文本的任务的LLM,到能给出一个目标,自己规划,调用工具的智能体,很难想象未来人们的生活会被改变多少。
部署方面,一个具有上亿参数的深度学习模型在测试集上达到预定的精度后,总要落地投入使用。并且需要做到,跨平台、高效能、保精度、.产品集成(满足产品的各种用法,包括加密、批处理、reshape,甚至授权,可裁剪)、训练打通(与训练生态打通,最好是训练完成后,简单命令直接导出)。为了应对上述挑战,书生浦语开源了系列用于部署的工具,并达到了较高的运行效率。
测评方面,这是自己之前较为忽略的一环。书生浦语构建的一套独有的测评方式,可以全方位地测评大模型的能力,为后续的发展指明方向。(比如,书生浦语就指出,在复杂逻辑推理方面,国产大模型和开源大模型与GPT4还存在着不小差距)
不当之处,请大家批评指正。