- 博客(8)
- 收藏
- 关注
原创 【大模型微调数据构造】
本节内容可参照XTuner 微调个人小助手认知,这里简单介绍下流程:首先进入之前创建的开发机并激活之前创建的虚拟环境建立文件夹ruozhiba复制internlm2-chat-1.8B模型上面的数据构造可以去指定地址下载数据集,我这里是直接去下载的,详细命令在开源数据网站上可以看到。
2024-06-18 16:49:00
972
原创 OpenCompass 大模型评测实战
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。
2024-06-18 16:40:57
729
原创 Lagent & AgentLego 智能体应用搭建
在本节中,我们将基于 Lagent 自定义一个工具。Lagent 中关于工具部分的介绍文档位于 https://lagent.readthedocs.io/zh-cn/latest/tutorials/action.html。继承 BaseAction 类实现简单工具的 run 方法;或者实现工具包内每个子工具的功能简单工具的 run 方法可选被 tool_api 装饰;工具包内每个子工具的功能都需要被 tool_api 装饰下面我们将实现一个调用和风天气 API 的工具以完成实时天气查询的功能。
2024-06-18 16:35:50
1015
原创 LMDeploy 量化部署 LLM 实践
支持多模态模型:这一节内容其实比较简单,需要理解的知识点都是LMdeploy部署有关,更多的是希望同学们能够感受到LMdeploy部署的操作便捷性和输出的性能。
2024-06-18 16:19:49
674
原创 XTuner 微调 LLM:1.8B、多模态、Agent
是不是感觉其实微调也不过如此!事实上确实是这样的!其实在微调的时候最重要的还是要自己准备一份高质量的数据集,这个才是你能否真微调出效果最核心的利器。微调也经常被戏称为是炼丹,就是说你炼丹的时候你得思考好用什么样的材料、用多大的火候、烤多久的时间以及用什么丹炉去烧。这里的丹炉其实我们可以想象为 XTuner ,只要丹炉的质量过得去,炼丹的时候不会炸,一般都是没问题的。但是假如炼丹的材料(就是数据集)本来就是垃圾,那无论怎么炼(微调参数的调整),炼多久(训练的轮数),炼出来的东西还只能且只会是垃圾。
2024-06-13 16:47:37
956
原创 IntenLM2-三-《“茴香豆“:零代码搭建你的 RAG 智能助理》
茴香豆的工作流分为三个部分:预处理(Preprocess),拒答工作流(Rejection Pipeline),应答工作流(Response Pipeline),使用拒答工作流是为了方便更复杂的应用场景。
2024-06-11 17:40:29
804
原创 InternLM2实战营第二期-笔记
部署 InternLM2-Chat-1.8B 模型进行智能对话,部署实战营优秀作品 八戒-Chat-1.8B 模型,通过 InternLM2-Chat-7B 运行 Lagent 智能体 Demo,实践部署 浦语·灵笔2 模型
2024-06-11 10:02:02
1136
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人