自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 第七节:OpenCompass 大模型评测实战

上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系“司南”(OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现提供公平、公开、可复现的大模型评测方案。全面的能力维度五大维度设计,提供 70+ 个数据集约 40 万题的模型评测方案,全面评估模型能力。丰富的模型支持已支持 20+ HuggingFace 及 API 模型。分布式高效评测一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。多样化评测范式。

2024-05-03 17:50:50 885

原创 第六节:Lagent & AgentLego 智能体应用搭建

Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。

2024-05-03 17:32:37 836

原创 XTuner 微调笔记+作业

XTuner 是一个大语言模型和多模态模型微调工具箱,由 MMRazor 和 MMDeploy 联合开发。🤓:以配置文件的形式封装了大部分微调场景,即使是零基础的非专业人员也能轻松开始微调。🍃:对于参数量为 7B 的LLM,微调所需的最小显存仅为 8GB,适用于消费级显卡和colab环境。

2024-05-03 17:19:42 185

原创 XTuner 微调

准备好了数据集后,接下来我们就需要准备好要用于微调的模型。而对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 adapter ,因此是不需要进行模型整合的。如果只使用上面的数据微调模型可能会出现过拟合的问题,即模型丢失了基础的能力,只会成为某一句话的复读机,“我是面壁者的小助手,内在是上海AI实验室书生·浦语的1.8B大模型哦” ,到后面的话无论我们再问什么,得到的结果也就只能是回答这一句话了,模型已经不会再说别的话了。

2024-05-03 17:13:35 85

原创 LMdeploy量化部署LLM实践笔记+作业

接下来,激活刚刚创建的虚拟环境。安装0.3.0版本的lmdeploy。

2024-04-13 23:39:34 141 1

原创 第三节作业:茴香豆语言模型测试

最后,运行茴香豆知识助手测试了搭建的助手效果。RAG技术通过结合检索和生成的方法,利用外部知识库来生成更准确、更丰富的回答。它能够解决传统语言模型在处理知识密集型任务时可能遇到的问题,如幻觉、知识过时等,提供更准确的回答、降低推理成本、实现外部记忆。在介绍了RAG技术后,笔记详细说明了如何在开发机上配置环境,包括创建基础环境、下载基础文件和安装茴香豆等步骤。总的来说,这份笔记提供了一个详细的步骤,指导如何搭建基于RAG技术的知识助手,为使用者提供了一种有效利用外部知识库提升语言模型性能的方法。

2024-04-07 20:49:33 225

原创 第二节作业+笔记:轻松玩转书生·浦语大模型趣味 Demo

界面,点击 创建开发机 配置开发机系统。镜像,然后在资源配置中,使用。的选项,然后立即创建开发机器。通过左侧文件夹栏目,双击进入。后,点击 选择镜像 使用。

2024-04-02 11:28:47 112

原创 第一节笔记

InternLM2 是作者开发的一种新型开源大型语言模型,其性能优于 LLaMA、Qwen等的开源模型。3.Internlm2模型性能优于同量级Qwen ChatGLM Baichuan等的开源模型。有优秀的API调用能力,模型原生的计算能力和配合解释器的计算能力都比较优秀。1.模型微调方案 XTuner 以及推理方案LMDeploy。4.. 使用Lagent 智能体框架创建多模态AI。主要优点是兼容性强,性能开销小,运行效率高。

2024-04-01 22:52:36 207

原创 超强LLM模型:InternLM2-Chat-1.8B体验

体验超强LLM模型InternLM2-Chat-1.8B后,我深感震撼和惊叹。这款模型展现了前所未有的语言理解和生成能力,几乎可以和人类进行自然而流畅的对话。其超大规模的1.8B参数使得其具备了广泛而深入的知识储备,能够回答各种各样的问题,并且在交流中展现出高度的逻辑性和连贯性。在与该模型的交流中,我感受到了它的灵活性和智慧。它不仅可以回答简单的问题,还能够进行深入的讨论,甚至能够理解并回应抽象的概念。它的回答通常准确而富有见地,让人仿佛在与一个具有广博知识和逻辑思维的人交流。

2024-04-01 22:45:44 207

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除