自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 书生·浦语大模型实战营第二期 第3节作业

第六轮我提出紧贴实事的社会问题,豆姐用时最长,给出的是比较教科书的回答,并且附上了一些自己的想法总结,且标注了参考文献的出处和建议。将书名、出版社、作者及自己分析总结的体会整合给了我。第三轮我提出了一个文献中没有显著罗列的抽象时间问题,茴香豆根据文献材料,对我的抽象问题进行了回答,并准确的先后时间轴的排序。本次导入的课题是《西方欧洲音乐的历史》,我导入了一篇WORD版本的50页的材料,作为基础文献,并进行了5论对话。第二轮我提出了一个乐理概念,茴香豆讲文献中关于该概念的相关内容进行的索引。

2024-04-19 15:16:32 207

原创 【书生·浦语大模型实战营第二期 第4节笔记】

首先,我们要先了解微调的重要性,现在的大源模型基本都是foundation模型,在普遍任务专域还是可以胜任的,但在实际的特定领域就会出现认知偏差,就例如Tesla,会被识别为人名等。课程还介绍了XTuner框架的使用方法和数据的重要性。实践部分手把手教大家如何使用XTuner微调自己的大模型,并介绍了1.8B和多模态的内容。由 XTuner 贡献者李剑锋、汪周谦、王群带来【XTuner 微调 LLM:1.8B、多模态和 Agent】课程内容的讲解~1、微调理论讲解及 XTuner 介绍。

2024-04-19 14:20:36 194

原创 书生·浦语大模型实战营第二期 第3节笔记

本期课程中介绍的茴香豆就是一款比较新的应用, InternLM2-Chat-7B 训练数据库中并没有收录到它的相关信息。右图未对 InternLM2-Chat-7B 进行任何增训的情况下,通过 RAG 技术实现的新增知识问答。由书生·浦语社区贡献者【北辰】带来【茴香豆:搭建你的 RAG 智能助理】讲解。然而搭建RAG智能助理能很好的规避传统方式里存在的弊端。弊端就是语料更新太快,语料难以收集,知识成本高等。此前,传统方式是先采集语料,再进行微调。

2024-04-19 13:47:48 164

原创 书生·浦语大模型实战营第二期 第2节作业

使用 InternLM2-Chat-1.8B 模型生成 300 字的小故事。配置基础环境: 创建开发机 配置开发机系统。运行 cli_demo。

2024-04-09 10:34:50 159

原创 书生·浦语大模型实战营第二期 第2节笔记

创建Intern Studio开发机,通过Modelscope下载InternLM2-Chat-1.8B模型,完成Client Demo的部署和交互。通过OpenXLab部署XiYou系列的八戒-Chat-1.8B模型,完成Web Demo的部署和交互。实战算力升级后,以InternLM2-Chat-7B为基础,运行开源框架Lagent的智能体Demo。4.实战进阶 灵笔 InternLM-XComposer2。浅尝多模态实践,实现更强大的图文生成式写作。轻松玩转书生·浦语大模型趣味 Demo。

2024-04-08 15:20:50 92

原创 书生·浦语大模型实战营第二期 第1节笔记

InternLM2模型性能非常卓越,在迭代数次后,目前在长文本建模和开发式主观评估方面,可以很好的构建各类agent。

2024-04-02 13:34:23 73

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除