自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 InternLM 茴香豆部署实践

如果问答效果不理想,尝试调整正反例。

2024-08-29 21:42:38 878

原创 InternLM InterbVL微调实践

如果这里你执行的epoch不是6,是小一些的数字。你可能会发现internvl_ft_run_8_filter下没有iter_3000.pth, 那你需要把iter_3000.pth切换成你internvl_ft_run_8_filter目录下的pth即可。让我们打开数据集的一张图看看,我们选择jsonl里的第一条数据对应的图片。使用lmdeploy自带的pipeline工具进行开箱即用的推理流程,首先我们需要新建一个文件。推理后我们发现直接使用2b模型不能很好的讲出梗,现在我们要对这个2b模型进行微调。

2024-08-29 20:07:12 988

原创 InternLM Mindsearch Github Codespace部署

记录复现过程并截图。

2024-08-29 19:07:22 945

原创 InternLM LMDeploy 量化部署实战

模型在运行时,占用的显存可大致分为三部分:模型参数本身占用的显存、kv cache占用的显存,以及中间运算结果占用的显存。随着模型变得越来越大,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。此时代表我们成功地使用本地API与大模型进行了一次对话,如果切回第一个终端窗口,会看到如下信息,这代表其成功的完成了一次用户问题GET与输出POST。让我们回到LMDeploy,在最新的版本中,LMDeploy使用的是AWQ算法,能够实现模型的4bit权重量化。输入以下指令,执行量化工作。

2024-08-29 10:09:56 613

原创 InternLM Lagent定义Agent智能体

记录复现过程并截图。

2024-08-28 23:44:52 320

原创 Datawhale AI夏令营 CV task 1

第五期Datawhale AI夏令营的CV方向基于大运河杯的比赛开展。在Task1中,训练营学院需要跑通基于YOLO实现的目标检测方案的baseline代码。等待一段时间后即可查看结果。4. 回到 大运河杯 主页,提交。领取免费50h GPU在线算力。

2024-08-26 09:37:16 194

原创 基础岛 书生大模型全链路开源开放体系笔记

大模型的发展历程见证了从传统统计学习到深度学习的转变,特别是Transformer和GPT-3等模型的问世,标志着AI进入了一个新的时代。如今,这些大模型在智能体AI和机器人领域发挥着重要作用,如游戏AI、聊天机器人、蛋白质结构预测、决策规划和人机交互等,极大地提升了AI的性能和交互能力,推动了技术的广泛应用和深入发展,成为了通往通用智能的一把钥匙。

2024-08-12 00:12:25 659

原创 基础岛 xtuner微调大模型

记录复现过程并截图。

2024-08-11 23:50:56 653

原创 基础岛 opencompass评测

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。

2024-08-11 22:22:22 804

原创 基础岛 提示词实践

近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8<13.11。:利用LangGPT优化提示词,使LLM输出正确结果。

2024-08-11 16:16:06 1041

原创 基础岛 Llamaindex RAG关卡

(我们也可以选用别的开源词向量模型来进行 Embedding,目前选用这个模型是相对轻量、支持中文且效果较好的,同学们可以自由尝试别的开源词向量模型)正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。我们在使用开源词向量模型构建开源词向量的时候,需要用到第三方库。回答的效果并不好,并不是我们想要的xtuner。进入开发机后,创建新的conda环境,命名为。运行以下指令,新建一个python文件。镜像,然后在资源配置中,使用。

2024-08-11 01:53:45 896

原创 基础岛 8G大模型demo

首先,我们创建一个目录,用于存放我们的代码。然后,我们将下面的代码复制到。来启动我们的 Demo。用conda创建虚拟环境。接下来,我们便可以通过。

2024-08-10 15:06:08 366

原创 InternLM Python关卡

InternLM Python

2024-07-26 22:08:21 324

原创 InternLM Linux关卡

InternLM Linux

2024-07-26 21:42:41 145

原创 InternLM Git关卡

InternLM 第三期 Git关卡

2024-07-26 13:10:58 611

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除