书生实战营基础第一关:书生大模型全链路开源体系

        观看了由书生·浦语社区贡献者汪周谦带来的《书生·浦语大模型全链路开源开放体系》的介绍,熟悉了书生·浦语大模型及其工具链。

        视频链接:https://www.bilibili.com/video/BV18142187g5/

        官网:https://internlm.intern-ai.org.cn/

        可访问以下链接报名第三期书生大模型实战营: https://www.wjx.cn/vm/PvefmG2.aspx?sojumpparm=openmmlabbz

        这是教程网址 :https://github.com/InternLM/Tutorial

        过去一年间,书生浦语打通了全链路,在数据收集、标注,模型训练、微调、评测,基于模型的agent,rag,搜索引擎,以及AI应用的部署都进行了方案实现以及开源,以持续的高质量开源赋能创新。

        书生大模型(InternLM)性能天梯

        可以看出InternLM2.5的原生推理性能提升20%,短期记忆能力也十分出色。GPT4-o模型的上下文只有128K,InternLM2.5相较于GPT4-o模型有十倍量级,也具有出色的自主规划和搜索完成复杂任务的能力。

        在核心设计思路中,是以数据质量驱动模型性能优化。

        基于反馈的数据生成,换而言之就是基于人类反馈的强化训练(有监督的训练),模型生成多个结果,人类给这多个结果进行满意度的排序,从而使模型在未来版本更容易生成符合人类要求的答案。如果只做相似度对齐的训练不一定能使人类满意。这种数据生成最大的痛点是标注,目前书生浦语也开源了label LLM的开源项目,可以通过这个项目很方便的对NLP任务,包括这种排序任务进行很方便的标注。

        

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值