书生浦语第一课

本文介绍了InternLM2的7B和20B参数模型,以及针对对话场景的优化版本InternLM2-Chat。文章详细阐述了从模型选择到应用部署的典型流程,包括数据准备、微调选项和书生浦语开源体系的组成部分。
摘要由CSDN通过智能技术生成

书生浦语第一课

第一章 大模型简介

InternLM2 的体系

模型提供了7B和20B2个参数级别的模型,都是基于 InternLM2-Base 的,InternLM2 在各个方面进行强化,应用时首选,InternLM2-Chat 经过 SFT和 RLHF 面向对话进行了优化,聊天场景首选。

从模型到应用的典型流程

模型选型、业务场景是否复杂、算力是否充足、全参数微调、部分参数微调、是否需要与环境进行交互、构建智能体、模型评测、模型部署。

书生浦语全链路开源体系

数据:书生万卷1.0 2TB 书生万卷CC
预训练:InternLM-Train
微调:XTuner 最低8GB显卡微调7B,增量续训,有监督微调
部署: LMDeploy
评测:OpenCompass CompassRank 是模型榜单,CompassKit 是评测工具,CompassHub是评测社区
应用:AgentLego

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值