自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 【InternLM】OpenCompass大模型评测实战

OpenCompass中文名称司南,主要特点有:开源可复现、全面的能力维度、丰富的模型支持、分布式高效评测、多样化评测范式、灵活化拓展。

2024-05-06 00:57:52 706

原创 【InternLM】Lagent && AgentLego

Lagent 是一个开源的 LLM 智能体框架,允许使用者快速将一个大语言模型转换成智能体,并提供一些典型工具来激发大语言模型的潜能Lagent 包含三个主要模块:agents,llms 和 actions。agents 实现了多种智能体,如 ReAct,AutoGPT。llms 支持多种大语言模型,包括在 HuggingFace 上托管的开源模型(Llama-2, InterLM)及 GPT3.5/4 等闭源模型。actions 包含一系列工具,并提供工具执行器统一管理。

2024-05-05 22:43:43 254 2

原创 【InternLM】LMDeploy量化部署

配置conda环境安装Imdeploy环境下载预训练模型,查看模型,开发机上下载模型使用Transformer库运行模型使用LMDeploy运行模型来调整--cache-max-entry-count参数的效果,显存占用减小。

2024-05-05 21:07:24 479 3

原创 【InternLM】第四课:XTuner微调大模型

因为现在很多的大语言模型是底座模型,为了普遍任务,一般性任务进行预训练的,利用到实际领域或者下游任务中,不如专有模型,所以要在领域内进行微调什么是标准格式数据:就是训练框架可以识别的数据格式使用Lora的原因是减少显存开销QLora把模型本身加载到显存中时用的就是4bit量化的方式(就是不那么精确的加载,四舍五入加载)全参数微调 lora微调 Qlora微调对比。

2024-05-05 20:02:37 296

原创 书生·浦语大模型 第三课 茴香豆:搭建你的RAG智能助理

通俗点来说,RAG作为一个搜索引擎,用户输入的内容作为索引,在外部知识库中搜寻相关内容结合大语言模型的能力生成回答构建一个向量数据库(Vector-DB),关于向量数据库的存储、检索、及向量数据库的优化。

2024-04-19 11:26:56 262 1

原创 书生·浦语大模型趣味Demo

模型的对话逻辑有些问题。

2024-04-05 11:24:10 214 1

原创 书生·浦语大模型课程笔记及InternLM2技术报告笔记

2024年1月17日,InternLM 2 开源数据:书生·万卷——2TB数据,涵盖多种模态与任务 OpenDatalab开放的数据平台预训练:InternLM-Train——并行训练,极致优化。特点:高可拓展、极致的性能优化、兼容主流、开箱即用微调:XTuner——支持全参数微调,支持LoRA等低成本微调,适配多种生态,适配多种硬件微调又分为 :增量续训:让基座模型学到新的知识,如某个垂类领域的知识。训练数据:文章、书籍代码等有监督微调:让模型学会理解和遵循各种指令,或者注入少量领域知识。

2024-04-01 17:08:43 1350

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除