讲师: 陈恺,上海人工智能实验室青年科学家
主题: 书生·浦语大模型全链路开源体系
B站回顾:书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili
视频首先接受了关于大模型的发展路程和生活中的具体应用如经典的AlphaGo的围棋比赛和近年来的AI预测蛋白质结构,由专用的模型变成的通用大模型比如chatGPT。简述了有关书生浦语的开源和发展历程。
书生浦语大模型的优势和特点
介绍了从发布以来各种优化和迭代实现了性能的全方位提升、贴心可靠的AI助手、充满人文关怀的对话、富有想象力的创作、升级了InterLM的工具调用能力能实现复杂的任务、拥有强大的内生计算能力、代码解释器更加完善、实用的数据分析能力
模型到应用的典型流程
模型到应用的典型流程如下
模型选型: 根据业务需求选择合适的模型。
业务场景分析: 评估算力和环境交互需求。
参数微调: 根据场景选择微调形式。
环境交互类型选择: 构建智能体(agent)。
构建智能体: 根据需求构建。
模型评测: 使用OpenCompass等工具进行评测。
模型部署: 将模型部署到实际应用中。
书生浦语全链条开源开放体系:由以下数据准备(书生·万卷)、预训练(InternLM-Train)、微调(XTuner)、部署(LMDeploy)、评测(OpenCompass)、应用(LagentAgentLego) 组成
总结
Class1主要介绍了有关书生浦语在行业上的优势在自己完整的全链条开源开放体系的优势和强大竞争力,也说明了建立一个大模型所需要的配置和基础的流程和操作