自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 OpenCompass 评测 InternLM-1.8B 实践-材料提交

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM-Chat-7B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以。# 列出所有跟 internlm 及 ceval 相关的配置。# 将会在opencompass下看到data文件夹。模式下,任务将按顺序执行,并实时打印输出。模式启动评估,并检查是否存在问题。# 解压评测数据集到 data/ 处。

2024-08-09 18:18:33 450

原创 XTuner微调个人小助手认知

对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。比如我们这里微调的是书生·浦语的模型,我们就可以匹配搜索。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。我们可以添加自己的输入。

2024-08-09 02:25:08 352

原创 InternLM + LlamaIndex RAG 实践

给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?

2024-08-08 19:25:22 685

原创 LangGPT结构化提示词编写实践

提示工程是一种通过设计和调整输入(Prompts)来改善模型性能或控制其输出结果的技术。在模型回复的过程中,首先获取用户输入的文本,然后处理文本特征并根据输入文本特征预测之后的文本,原理为。指令要清晰提供参考内容复杂的任务拆分成子任务给 LLM“思考”时间(给出过程)使用外部工具系统性测试变化。

2024-08-08 13:00:32 556

原创 茴香豆“:零代码搭建你的 RAG 智能助理

RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。

2024-07-26 19:53:37 835

原创 玩转书生大模型-demo

InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.# 与 studio-conda 等效的配置方案。# save_dir是模型保存到本地的目录。通过左侧文件夹栏目,双击进入。配置完成后,进入到新创建的。# 创建保存模型目录。

2024-07-25 22:39:52 619

原创 书生·浦语大模型全链路开源开放体系笔记

6. 工具体系:为了简化从模型到应用的过程,开发了全链条的工具体系并开源。这些工具支持从数据准备、模型训练、微调、部署到评测的整个过程,旨在帮助开发者和研究者更容易地使用和开发大模型应用。2. 书生浦语大模型的特点:书生浦语大模型是一个全链条的开源体系,支持长达20万汉字的输入,是全球大模型产品中支持的最长上下文输入长度。包括升级千亿参数大模型、支持8K语境、推出全免费商用的7B开源模型和全链条工具体系、发布多模态预训练语料库、升级对话模型等。CompassHub基准社区。微调:增量续训、有监督微调。

2024-07-25 19:57:01 120

原创 Python 关卡

在开发机中创建一个python_taks1.py 文件。# 遍历单词列表并更新字典中的计数。# 返回包含单词计数的字典。

2024-07-13 01:53:15 250 1

原创 Linux+InternStudio 关卡(test)

根据Linux+InternStudio 关卡文档。

2024-07-13 00:40:44 69

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除