L1 书生大模型开源体系

书生大模型简绍

随着ChatGPT爆火之后,LLM开始引起大家的关注,但是由于无法进行个性化操作或具有某个方面专业化知识的大语言模型,开源模型也就有了与这些不开源的模型有了优势的地方。开源模型可以进行自定义的微调。

书生大模型

官网
在这里插入图片描述
开源的有 1.8B,7B.20.
102B是闭源的,典型场景表现接近GPT-4。
模型有InternLM-XComposer,InternLM-Math,InternLM-WQX,

开源历程可以从官网查看

在这里插入图片描述

下面介绍相关工具链

涉及微调,数据处理,部署等
在这里插入图片描述
在这里插入图片描述
具体可以看视频或者github
在这里插入图片描述
茴香豆
在这里插入图片描述
在这里插入图片描述
模型可以从huggingface或国内的魔塔社区下载
魔塔社区
在这里插入图片描述
工具具体使用方法可以从官网查看或者相关github仓库查看文档。
接下来会一步一步简绍相关工具链的使用,请查看下一步发布的文章。

  • 7
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值