自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 书生·浦语大模型实战笔记&作业合集

笔记:作业:笔记:作业:笔记:作业:笔记:作业:笔记:作业:

2024-01-29 10:30:08 385

原创 大模型评测框架OpenCompass-作业

基础作业:

2024-01-23 21:48:02 441

原创 OpenCompass 大模型评测-笔记

评估完成后,OpenCompass 将结果整理成易读的表格,并将其保存为 CSV 和 TXT 文件。你也可以激活飞书状态上报功能,此后可以在飞书客户端中及时获得评测状态报告。这两个过程会被拆分为多个同时运行的“任务”以提高效率,但请注意,如果计算资源有限,这种策略可能会使评测变得更慢。您需要配置整个评估过程,选择要评估的模型和数据集。此外,还可以选择评估策略、计算后端等,并定义显示结果的方式。:在这个阶段,OpenCompass 将会开始对模型和数据集进行并行推理和评估。人工评价 or 模型评价。

2024-01-23 21:47:16 466

原创 LMDeploy大模型量化部署实践-作业

基础作业:

2024-01-20 18:12:38 419

原创 LMDeploy大模型量化部署实践

大模型部署挑战及方案第三个核心功能。

2024-01-19 14:49:09 444

原创 Xtuner大模型低成本微调实践-作业

将HuggingFace模型合并到底座internlm-chat-7b模型。开始单卡,epoch=1 训练,加载配置文件,基于mmengine。将torch模型转换为HuggingFace模型。准备微淘配置文件,列出配置文件。开启deepspeed加速训练。自定义微调未完待续......创建虚拟环境并clone代码。拷贝一个配置文件进行微调。下载数据文件和map数据。

2024-01-14 23:42:40 468

原创 Xtuner大模型低成本微调

数据处理对预训练模型进行指令微调,使得模型具有回答问题的能力。Xtuner微调原理全参数微调和LoRA微调的对比。

2024-01-14 23:40:18 430

原创 基于 InternLM 和 LangChain 搭建知识库

大模型的局限性针对大模型的局限性,通常有两种大模型开发范式,分别是检索增强生成(RAG)和微调(Fineturn)下面着重介绍RAG,并给予internLM开发RAG应用。下面是RAG原理:如何快速开发一个RAG应用?开源框架LangChain提供了帮助。基于LangChain搭建RAG应用的流程:知道了流程,下面需要构建数据库。

2024-01-13 22:33:00 450

原创 基于InternLM搭建自定义知识库-作业提交

发现tqdm库安装到了conda环境下,而调用却在local下。下载开源词向量模型(下载失败,找不到tqdm库)运行脚本,搭建向量数据库,后续可直接加载使用。运行web端demo,提出问题1。从conda下拷贝tqdm到local下。

2024-01-13 22:28:50 389

原创 InternLM模型简介及Demo演示

查看剩余空间,大模型一般比较大,需要足够空间下载模型InternLM-Chat-7B模型总大小为14G查看进程及GPU资源查看代码的更新日期切换分支。

2024-01-08 21:45:03 498

原创 书生·浦语大模型全链路开源体系

书生·浦语大模型实战营第一课学习笔记

2024-01-03 22:34:35 461

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除