书生·浦语大模型全链路开源开放体系介绍#书生大模型实战营#

书生·浦语大模型是由上海人工智能实验室(上海AI实验室)、商汤科技联合香港中文大学、复旦大学及上海交通大学共同研发的一个大规模语言模型。自2023年发布以来,历时一年多,目前已经更新到InternLM2.5。

书生谱语2.5概览:

推理能力领先:综合推理能力领先社区开源模型,相比上一代InternLM2性能提升20%;

支持100万字Token:百万字长文的理解和精确处理性能处于开源模型前列;

自主规划和搜索完成复杂任务:通过信息搜索和整合,针对复杂问题撰写专业回答,效率提升60倍

核心技术思路:

高质量的合成数据:1)基于规则的数据构造;2)基于模型的数据扩充;3)给予反馈的数据生成。

基于规划和搜索解决复杂问题:

书生·浦语2.5和人的解决思路对比

 书生·浦语开源模型谱系:

从参数来划分:包括InternLM1.8B,InternLM7B,InternLM20B,InternLM102B等,使用体验:小于20B基本上还是基于训练数据的检索,在20B以上出现涌现的现象。

从模态来分:InternLM-XComposer(灵笔)、InternLM-Math(数学)、InternLM-WQX(文曲星)

 开源体系总览图:

书生·浦语大模型开源体系涵盖从数据集准备、模型训练、微调到最终部署和应用的整个流程。全链条开源,与社区生态无缝连接。

以下是书生浦语大模型全链路开源体系的主要组成部分:

  1. 数据集

    • 数据集:包含多种模态的数据集,如文本、图像文本和视频等,用于训练模型;丰富多样的开放数据,并配套有相关的服务与工具。
    • 开源数据处理工具箱:提供了数据处理和数据标注的工具,帮助用户更好的处理自己的数据。
  2. 预训练InternEvo

    • 大规模训练:支持千卡以上大规模训练,千卡加速比可达92%;
    • 极致性能优化:4D并行+Ring Attention,最高支持1M长文训练
    • 软硬件优化:兼容HuggingFace生态,支持NV与910B集群;
    • 全场景训练:预训练+微调+RLHF,全场景覆盖。
  3. 微调:高效的微调框架XTuner

    • 适配多种生态:多种微调算法、适配多种开源生态、自动优化加速;
    • 适配多种硬件
  4. 部署

    • LMDeploy:提供了一套全面的部署框架,支持模型在GPU上的轻量化、推理和服务。
    • 支持高性能的部署方案,以确保在实际应用中的良好响应速度和用户体验。
  5. 评测体系

    • OpenCompass:提供了一个全面的评估框架,用于测试和比较不同模型的性能。
    • 广泛应用于头部大模型企业和科研机构
    • 工具-基准-榜单 三位一体,构建科学、领先、公平的大模型评测体系携手行业助力通用人工智能发展。
  6. 模型应用(智能体)

    • 轻量级智能体框架 Lagent:支持多种类型的智能体能力;灵活支持多种大语言模型;简单易扩展,支持丰富的工具。
    • 智能体MindSearch
    • 茴香豆

喜欢的小伙伴,点赞关注收藏吧。

  • 24
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值