【书生浦语实战】打卡:熟悉书生大模型全链路开源体系

在书生的github、官网转悠了一圈,看到书生系列的模型和工具都挺全面的,但是最新手友好的还是本次学习营活动,通过飞书、微信社群聚集了很多想学习大模型知识的人、整套教程经过多次迭代也越来越好用,点赞!
以下是找到的书生系列开源模型和工具:

书生·浦语

书生·浦语是由上海人工智能实验室推出的一系列开源AI大模型,具有强大的推理能力和超长文本处理功能。以下是一些书生·浦语的开源模型和工具的相关信息:

  1. InternLM-7B:于2023年7月6日开源,是浦语系列首个千亿参数模型,提供了全链条开源工具体系 。
  2. InternLM-20B:在2023年9月20日开源,并且开源工具链进行了全线升级 。
  3. InternLM2:于2024年1月17日开源,性能超越了当时最新的同量级开源模型 。
  4. InternLM2-Math:在2024年1月23日发布,是首个同时支持形式化数学语言及解题过程评价的开源模型 。
  5. InternLM-XComposer 和 InternLM-XComposer2:分别于2023年9月27日和2024年1月29日发布,是支持图文混合创作的大模型,其中后者支持个性化高质量图文创作和对话 。
  6. InternLM2-Math-Plus:于2024年5月24日开源,刷新了开源数学模型性能的上限 。
  7. InternLM2-WQX:在2024年6月4日开源,是一个200亿参数量的模型,在2024年高考中取得了接近GPT-4的性能成绩 。

此外,书生·浦语还提供了以下开源工具和框架:

  • 万卷-CC 从 CommonCrawl 提取的 1T Tokens 高质量英文网络文本数据集,在多个验证集和下游任务上展现了其对模型任务性能和安全性上的显著提升。

  • InternEvo 轻量级大模型预训练框架,旨在训练时能摆脱安装大量的库和处理复杂的依赖关系

  • Xtuner 集成主流 PEFT (Parameter-Efficient Fine-Tuning) 方法的轻量化微调工具

  • LMDeploy 大模型轻量化部署与高效服务化

  • OpenCompass 全面、客观、中立、可复现的大模型评测工具与榜单

  • Lagent & AgentLego LLMs 工具调用协议与智能体应用

  • 茴香豆 零代码搭建基于私有知识库的智能助理

书生·浦语的模型和工具的开源地址包括:

  • GitHub仓库:https://github.com/InternLM/InternLM
  • Hugging Face:https://huggingface.co/internlm
  • ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory
  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值