课程地址:https://www.bilibili.com/video/BV1Vx421X72D/
主要内容:书生·浦语大模型全链路开源体系
专用模型到通用模型
专用模型:单任务——识别、分类…
通用模型:多任务多模态
书生系列
InternLM发布
开源:8K语境,26种语言(是26种数据库,还是一种语言训练,模型发布时嵌入翻译模块)
书生万卷1.0:预料库开源
升级对话模型:InternLM-Chat-7B v1.1发布,开源智能体框架Lagent——语言到智能体
InternLM千亿参数——132B
增强版InternLM-20B
InternLM 2开源(base、LM2、chat)
InternLM 2
语言建模的本质
数据清洗:
多维评估:文本、信息、信息密度
预料丰富
数据补齐
亮点:
上下文长:20万token的上下文
综合性能:InternLM-Chat-20B的推理、数学、代码能力比肩ChatGPT
对话和创作:AIpacaEval2
工具调用
书里和数据分析能力:GSM8K、MATH数据集
性能
工具调用
BINGMAP api、Email api
查询
代码解释器:撰写代码获得输出?
数据分析:上传表格——生成分析的代码
应用
过程:
评测:社区开源模型在开源数据集、榜单上的表现。
业务场景:
复杂:算力——全参数(续训)、部分参数微调(LoRA)——具备业务场景的知识——和环境进行交互——构建智能体(评测)——部署
不复杂:评测——部署。拿来直接用?
开放体系
微调
榜单
问题
部署
智能体
工具箱:AgentLego
Stable Diffusion 模型、语音、SAM