自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 书生·浦语大模型(七)OpenCompass :大模型评测实战【作业部分】

一、基础作业(一)使用 OpenCompass 评测 internlm2-chat-1_8b 模型在 C-Eval 数据集上的性能二、进阶作业(本部分由于时间冲突,暂未完成)(二)将自定义数据集提交至OpenCompass官网

2024-05-08 09:12:36 200 1

原创 书生·浦语大模型(六)Lagent & AgentLego 智能体应用搭建【作业部分】

目录一、基础作业(一)完成 Lagent Web Demo 使用,并在作业中上传截图。(二)完成 AgentLego 直接使用部分,并在作业中上传截图。二、进阶作业(本部分由于时间冲突,暂未完成)(一)完成 AgentLego WebUI 使用,并在作业中上传截图。(二)使用 Lagent 或 AgentLego 实现自定义工具并完成调用,并在作业中上传截图。

2024-05-06 23:08:33 364

原创 书生·浦语大模型(五)LMDeploy 量化部署 LLM-VLM 实践【作业部分】

可以看出,回答的还是不错的。

2024-04-26 11:22:22 354 1

原创 书生·浦语大模型(四)XTuner 微调 LLM:1.8B、多模态、Agent【作业部分】

因为本次课程我在第一期训练营实践过很多次,发现非常容易出现过拟合的问题,还需要多多改进。下面是我的效果:可以看出,已经训练成傻子了,所以还是要控制好数据量。不断的进行完善和后续的学习。

2024-04-26 10:25:06 423 1

原创 书生·浦语大模型(三)茴香豆:搭建你的RAG智能助理【作业部分】

可以看出,整体的效果还是十分不错的,能够在pdf文档里面只能检索,然后进行回答。

2024-04-26 08:37:34 323 1

原创 书生·浦语大模型(七)OpenCompass :大模型评测实战

上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。

2024-04-23 16:02:13 786

原创 书生·浦语大模型(六)Lagent & AgentLego 智能体应用搭建

Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。Arxiv 搜索Bing 地图Google 学术搜索Google 搜索交互式 IPython 解释器IPython 解释器PPTPython 解释器在本节中,我们将基于 Lagent 自定义一个工具。Lagent 中关于工具部分的介绍文档位于动作 — Lagent。继承 BaseAction 类实现简单工具的 run 方法;

2024-04-23 15:07:02 1690

原创 书生·浦语大模型(五)LMDeploy 量化部署 LLM-VLM 实践

LMDeploy 量化部署 LLM-VLM 实践

2024-04-22 20:45:07 1053 1

原创 书生·浦语大模型(四)XTuner 微调 LLM:1.8B、多模态、Agent【实践笔记部分】—— 1.8B XTuner多模态训练与测试(需要的GPU资源为24GB 30% 的 A100)

在本节中,我们将自己构造数据对,基于InternLM2_Chat_1.8B这个文本单模态模型,使用LLaVA方案,训练一个给InternLM2_Chat_1.8B使用的Image Projector文件。LLaVA方案中,给LLM增加视觉能力的过程,即是训练Image Projector文件的过程。该过程分为2个阶段:Pretrain和Finetune。

2024-04-20 08:23:10 1705

原创 书生·浦语大模型(四)XTuner 微调 LLM:1.8B、多模态、Agent【实践笔记部分】——XTuner微调个人小助手认知

XTuner微调个人小助手认知

2024-04-19 11:20:28 1803 1

原创 书生·浦语大模型(四)XTuner 微调 LLM:1.8B、多模态、Agent【理论笔记部分】

为什么要微调?把通用的基座模型通过微调,得到专业领域的模型。

2024-04-19 08:57:58 633 1

原创 书生·浦语大模型(三)茴香豆:搭建你的RAG智能助理【基础部分】

茴香豆:搭建RAG智能助理

2024-04-07 21:25:49 1031

原创 书生·浦语大模型(二)趣味demo——homework【已体验灵笔】

小提,大模型认证的女孩,哈哈哈

2024-04-02 22:51:24 178

原创 书生·浦语大模型(二)趣味demo【已体验灵笔】

Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:

2024-04-01 11:32:05 1067

原创 书生·浦语大模型(一)第2稿

大模型已经成为发展通用人工智能的重要途径,而且专用模型的发展逐步集成为通用的大模型,通用大模型成为人们追逐的热点。高效微调框架的介绍,能够适配多种硬件和生态。

2024-04-01 09:15:17 255

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除