AI扩展坞
当你的能力支撑不了自己的野心的时候,就静下心来安心学习、等待东风来破茧重生
展开
-
书生·浦语大模型全链路开源体系(LLM/AGENT/多模态/应用部署)从入门到精通
书生浦语LLM大模型教程原创 2024-04-17 09:34:33 · 869 阅读 · 0 评论 -
【第 8 节】大模型微调数据构造(补充课程)
本节内容可参照XTuner 微调个人小助手认知。原创 2024-04-28 18:42:51 · 695 阅读 · 0 评论 -
【第3节】“茴香豆“:搭建你的 RAG 智能助理
RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。LLM会产生误导性的 “幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。原创 2024-04-24 23:44:13 · 1097 阅读 · 0 评论 -
【第7节】OpenCompass 大模型评测实战
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。原创 2024-04-24 23:08:38 · 753 阅读 · 0 评论 -
【第6节】Lagent & AgentLego 智能体应用搭建
在这一部分中,我们将带大家直接使用 AgentLego 工具,体验 AgentLego 的 WebUI,以及基于 AgentLego 自定义工具并体验自定义工具的效果。在上面介绍中可知,AgentLego 算法库既可以直接使用,也可以作为智能体工具使用。下面将分别介绍这两种使用方式。我们将以目标检测工具为例。原创 2024-04-24 22:27:13 · 1075 阅读 · 1 评论 -
【第5节】LMDeploy 大模型量化部署实践
视频文档作业lmdeploy官方文档OpenXLab个人感觉camp2讲解的没有第一次的内容好,都是照着文档跑一遍,基础内容也没有啥深度(也可能是我水平太低哈,哈哈)。补充观看之前1.0版本的讲解吧文档视频基础作业(结营必做)配置 LMDeploy 运行环境以命令行方式与 InternLM2-Chat-1.8B 模型对话进阶作业设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。(优秀学员必做)原创 2024-04-24 01:42:10 · 1120 阅读 · 0 评论 -
【第4讲】XTuner 微调 LLM:1.8B、多模态、Agent
视频教程文档连接作业xtuner官网基础作业(结营必做)训练自己的小助手认知(记录复现过程并截图)进阶作业将自我认知的模型上传到 OpenXLab,并将应用部署到 OpenXLab(优秀学员必做)复现多模态微调(优秀学员必做)- 2 种不同训练范式- 数据处理的一般过程原始数据 -> 标注格式数据 -> 添加对话模板 -> tokenized数据 ->添加label -> 开始训练(1) 标准格式数据(2)添加对话模板对话模板有3种角色:(3)微调方案XTuner 的运行原理。原创 2024-04-22 20:00:01 · 577 阅读 · 0 评论 -
【第 2 节】轻松玩转书生·浦语大模型趣味 Demo
1.2.1 什么是大模型?大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素。这些模型在各种任务中展现出惊人的性能,比如自然语言处理、计算机视觉、语音识别等。这种模型通常采用深度神经网络结构,如 Transformer、BERT、GPT( Generative Pre-trained Transformer )等。原创 2024-04-17 19:34:26 · 844 阅读 · 0 评论 -
【第1节】书生·浦语大模型全链路开源开放体系
书生·浦语 InternLM介绍InternLM 是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀,在多种面向人类设计的综合性考试中表现突出。在此基础上,通过高质量的人类标注对话数据结合 RLHF 等技术,使得 InternLM 可以在与人类对话时响应复杂指令,并且表现出符合人类道德与价值观的回复。原创 2024-04-17 11:22:40 · 1298 阅读 · 0 评论