- 博客(7)
- 收藏
- 关注
原创 大模型OpenCompass评测实战
大模型发展过程中模型评测起到的意义,评测体系的发展、挑战、方向,评测社区的贡献与工具的作用,评测方式、方法、规范在大模型评测过程中全面了解大模型的优势和限制。数据集上的具有确定性答案的能力维度和场景,通过构造丰富完善的评测集,对模型能力进行综合评价,体现模型能力的开放式或半开放式的问题、模型安全问题等。第三步:opencompass/ opencompass/database/_init_.py文件中添加第二步中的py文件,注册实现的模块。评测完成情况,会打印出模型在各维度的一个评价情况。
2024-04-21 19:58:23 974 1
原创 轻松Lagent&AgentLego搭建智能体应用
自定义工具主要分为以下几步:继承 BaseTool 类,修改 default_desc 属性(工具功能描述),如有需要,重载 setup 方法(重型模块延迟加载),重载 apply 方法(工具功能实现),下面我们将实现一个调用 MagicMaker 的 API 以实现图像生成的工具。(项目名称和 key 的名词自由输入即可,接下来回到项目管理页面,查看我们刚刚创建的 key,并且复制好以供使用。的多模态工具包,旨在像是乐高积木一样,让用户可以快速简便地拓展自定义工具,从而组装出自己的智能体。
2024-04-19 22:45:46 717
原创 XTuner 微调 InternLLM-1.8B、多模态
先了解XTuner的运行原理,准备数据,数据格式转换,采用的微调方法,选择一个模型,选择合适的配置文件,生成配置文件,对配置文件中模型、数据集地址进行修改,数据集的加载方式,选择提示模板,数据集映射的方式,训练主要参数deepspeed、续训、权重保存地址的修改,开始模型训练,模型转换及整合,对模型进行对话测试,根据测试结果是否继续调整模型训练,模型测试结果达到预期,对模型进行部署。使用这个额外的参数对话的模型和整合后的模型几乎没有什么太多的区别,因此我们可以通过测试不同的权重文件生成的。
2024-04-17 01:18:03 936
原创 LMDeploy 量化部署 LLM 实践+进阶
pipe = pipeline('liuhaotian/llava-v1.6-vicuna-7b', backend_config=backend_config) 非开发机运行此命令。# pipe = pipeline('liuhaotian/llava-v1.6-vicuna-7b', backend_config=backend_config) 非开发机运行此命令。internlm2-chat-1_8B模型量化部署与llava多模态模型llava-v1.6-7b部署实践。
2024-04-11 02:50:14 683
原创 玩转“茴香豆“:零代码搭建你的 RAG 智能助理
执行提取关键点命令不是分为两步吗,一步是目标检测,另一步是关键点提取,我现在目标检测这部分的代码是demo/topdown_demo_with_mmdet.py demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth 现在我想把这个mmdet的checkpoints换位yolo的,那么应该怎么操作",作为基础模型,复制茴香豆所需模型文件。
2024-04-08 23:01:07 889
原创 书生·浦语大模型全链路开源体系
数据 -- 预训练 -- 微调 -- 部署 -- 评测 --应用。InternLM2-Chat:Base基础上,经过SFT和RLHF,面向对话交互惊醒了优化。主要亮点:超长上下文,综合性能全面提升,优秀的对话和创作体验,工具调用能力整体提升,突出的数理能力和实用的数据分析功能。InternLM2-Base:可塑性的模型基座。
2024-04-05 22:20:14 213
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人