自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 OpenCompass 评测 InternLM-1.8B 实践

由于 OpenCompass 默认并行启动评估过程,可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。打开 opencompass文件夹下configs/models/hf_internlm/hf_internlm2_chat_1_8b.py ,贴入以下代码。列出所有跟 InternLM 及 C-Eval 相关的配置。使用配置文件修改参数法进行评测。使用命令行配置参数法进行评测。

2024-08-11 11:26:57 149

原创 XTuner 微调个人小助手认知任务

由于我们准备的数据集是 JSON 格式的数据,并且对话内容已经是 input 和 output 的数据对,所以不需要进行格式转换。evaluation_inputs参数来设置多个问题来确保模型在训练过程中的变化是朝着我们想要的方向前进的。与需求最匹配的配置文件是 internlm2_chat_1_8b_qlora_alpaca_e3,复制该配置文件。由于不需要在 HuggingFace 上自动下载模型,因此更换模型的路径以及数据集的路径为本地的路径。生成微调的json格式数据。

2024-08-10 16:08:11 120

原创 Llamaindex RAG实践

由于xtuner是一款比较新的框架, InternLM2-Chat-1.8B 训练数据库中并没有收录到它的相关信息,问答未给出准确的答案。InternLM2-Chat-1.8B 进行任何增训的情况下,通过 RAG 技术实现的新增知识问答。使用外挂的RAG知识库的结果。

2024-08-10 16:06:04 155

原创 LangGPT结构化提示词编写实践

原版llama3 8B没办法判断13.11和13.8哪个比较大。加入langgpt系统prompt。

2024-08-10 16:04:21 194

原创 轻松分钟玩转书生·浦语大模型趣味 Demo

书生·浦语大模型趣味 Demo复现记录

2024-07-28 19:23:14 105

原创 书生大模型全链路开源体系

书生大模型全链路开源体系介绍笔记

2024-07-28 19:20:59 206

原创 书生大模型训练营第三期-L0-Python

任务1:任务2:

2024-07-11 11:36:47 127

原创 书生大模型训练营第三期-L0-Linux

入门岛0 linux+internstudio

2024-07-10 17:48:52 98

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除