InternLM 实战营第二期
文章平均质量分 96
InternLM 实战营第二期的学习笔记,附作业链接与代码
Oven_maizi
节能中...
展开
-
【InternLM 实战营第二期-笔记1】书生浦语大模型开源体系详细介绍&InternLM2技术报告解读(附相关论文)
书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili自从ChatGPT和GPT-4的出现以来 (OpenAI, 2023),大型语言模型(LLMs)在学术界和工业界迅速走红。训练在数十亿令牌上的模型展现了深刻的情感理解和问题解决能力,引发了人们普遍认为AGI时代即将到来的猜测。尽管如此,开发出与ChatGPT或GPT-4相当能力的模型的道路仍然模糊不清。开源社区正在努力缩小专有LLM与开源模型之间的差距。在过去的一年里,如LLaMA (Touvron et al., 2023a;原创 2024-04-12 13:09:37 · 2260 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记2】轻松玩转书生·浦语大模型趣味 Demo
Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:Lagent 的特性总结如下:流式输出:提供 stream_chat 接口作流式输出,本地就能演示酷炫的流式 Demo。原创 2024-04-12 13:11:47 · 1059 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记3】茴香豆:搭建你的 RAG 智能助理
大模型的训练时间在前,无法解答针对新增知识的问题,如何解决大模型的幻觉?传统方法:采集新增语料,通过微调等方式对模型进行再训练。缺陷:知识新增太快,语料太多,语料难以收集,训练成本太大。rag技术的提出。(不需要训练,解决新增知识的问题)Rag(retrieval augmented generation)是一种结合了检索(retrieval)和生成(generation)的技术,旨在通过利用外部知识库来增强大型语言模型(llms)的性能。原创 2024-04-12 13:16:11 · 1333 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记4】XTuner 微调个人小助手认知
在本节中主要就是带领着大家跑通了 XTuner 的一个完整流程,通过了解数据集和模型的使用方法、配置文件的制作和训练以及最后的转换及整合。那在后面假如我们也有想要微调出自己的一个模型,我们也可以尝试使用同样流程和方法进行进一步的实践!原创 2024-04-12 13:18:03 · 1112 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记5】LMDeploy 量化部署 LLM&VLM实战
书生·浦语是上海人工智能实验室和商汤科技联合研发的一款大模型,很高兴能参与本次第二期训练营,我也将会通过笔记博客的方式记录学习的过程与遇到的问题,并为代码添加注释,希望可以帮助到你们。原创 2024-04-12 13:18:48 · 1139 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记6】Lagent & AgentLego 智能体应用搭建
在本节中,我们将基于 AgentLego 构建自己的自定义工具。AgentLego 在这方面提供了较为详尽的文档,文档地址为。继承 BaseTool 类修改 default_desc 属性(工具功能描述)如有需要,重载 setup 方法(重型模块延迟加载)重载 apply 方法(工具功能实现)其中第一二四步是必须的步骤。下面我们将实现一个调用 MagicMaker 的 API 以实现图像生成的工具。MagicMaker 是汇聚了优秀 AI 算法成果的免费 AI 视觉素材生成与创作平台。原创 2024-04-21 16:59:04 · 1264 阅读 · 0 评论 -
【InternLM 实战营第二期-笔记7】OpenCompass 大模型评测实战(含报错解答)
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。原创 2024-04-21 16:59:48 · 1083 阅读 · 0 评论