书生浦语基础岛作业一


大模型是发展通用人工智能的重要途径。从专用模型(AlphaGo、人脸识别、德州扑克等)到通用大模型,一个模型应对多个任务、多种模态。

书生-浦语大模型
书生-浦语大模型陆续推出:

2023.7.6,InternLM-7B:开源率先免费商用
2023.9.20,InternLM-20B:200亿参数,开源工具链全线升级
2024.1.17,InternLM2开源:性能超最新同量级开源模型
2024.7.4,InternLM2.5开源
书生-浦语2.5概览
推理能力领先
支持100万字上下文
自主规划和搜索完成复杂任务
从模型到应用
从模型到应用是一个长链条:模型选型-续训/全参数微调(算力足够)-部分参数微调(算力不足,如LoRA)-构建智能体(与外部系统进行交互)-模型评测-模型部署。

全链条开源体系
书生-浦语全链条开源体系:

数据:书生-万卷
训练框架:InternEvo
评测:OpenCompass
微调:XTuner
部署:LMDeploy


应用:Lagent、HuixiangDou、MindSearch、MindU
书生-万卷
50亿文档,1TB数据量
OpenDataLab 开放数据平台:30+模态,80TB数据

InternEvo
模型训练
分布式训练系统
训练支持系统
基础设施

XTuner
微调
增量续训:让基座模型学习到一些新知识,如垂直领域知识
训练数据:文字、书籍或代码等。

有监督微调:让模型学会和理解各种指令,或者注入少量领域知识。
训练数据以高质量对话、问答数据为主

XTuner:支持多种微调算法,适配Huggingface、ModelScope的模型或数据集,自动优化加速,适配多种硬件(消费级显卡+数据中心显卡)

OpenCompass
大模型开源评测体系:6个维度进行评测。
主要面向基座模型和对话模型。

LMDeploy
大模型部署LMDeploy:

模型并行
量化
Attention优化
引擎
服务
支持模型的轻量化(4bit权重、8bit k/v)、推理(turbomind & pytorch)和服务(open-ai server, gradio, triton inference server),对外提供python、grpc、restful接口。

Lagent
LLM局限:最新知识获取;回复可靠性;数学计算;工具使用和交互。
使用LLM驱动智能体。
轻量级Lagent框架:
ReAct:根据输入选择工具
ReWoo:根据输入划分计划
AutoGPT:人工干预

支持多种大语言模型,集成了一些工具。
————————————————

                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
                        
原文链接:https://blog.csdn.net/yuetou/article/details/141144108

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值