自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 书生·浦语大模型 第二期训练营 第四节笔记与作业

XTuner微调LLM项目介绍,流程分为pre-tune和Finetune阶段,通过对图片和对话数据训练模型。在本节中主要就是带领着大家跑通了 XTuner 的一个完整流程,通过了解数据集和模型的使用方法、配置文件的制作和训练以及最后的转换及整合。那在后面假如我们也有想要微调出自己的一个模型,我们也可以尝试使用同样流程和方法进行进一步的实践!

2024-04-19 20:57:46 651

原创 书生·浦语大模型 实战训练营第二期 第三节 RAG与

大模型遇到未知的问题是,可能出现无法回答、幻觉问题,传统方法有更新知识库,但可能会有知识更新太快、语料知识库太大,训练成本高、语料难以收集等问题。这里我输入的反例不知道是不是输入方式不对,茴香豆回答的有一些问题。之后又试了几种方式,效果也不是很好,可能是我调用的方式不对。RAG可看作一个搜索引擎,将用户输入的内容作为索引,在外部知识库中搜寻相关内容,结合大语言模型的能力生成回答。试一试在日常问答中,输入一些茴香豆提前设置好的不回答的问题。命令行输入下面的命令,修改用于向量数据库和词嵌入的模型。

2024-04-12 15:05:16 935

原创 书生·浦语大模型实战训练营第二期第二节课堂笔记及作业

第二节主要介绍了四个实战任务。

2024-04-04 17:33:28 333 1

原创 初探书生·浦语大模型

本文是书生·浦语大模型实战训练营第二期第一节课的学习笔记。第一节课中,上海人工智能实验室的青年科学家 陈恺老师从通用大模型成为人工智能发展趋势开始,逐步为我们介绍了书生浦语大模型开源历程,书生浦语全链条开源开放体系。书生浦语大模型2.0提供不同尺寸和类型的模型,支持多语言和多模态任务,第一节的课程内容除了视频课程外,还包括一份InternLM 2的技术报告。

2024-04-03 14:07:08 716

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除