自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 InternLM 实战营 第七课:OpenCompass 大模型评测实战

注意:第三步有示例,参考示例编写在第5步上传.md文件成功后界面。

2024-04-30 08:21:56 1015

原创 InternLM 实战营 第六课 Lagent & AgentLego 智能体应用搭建

将基于 AgentLego 构建自己的自定义工具。AgentLego 在这方面提供了较为详尽的文档,文档地址为 https://agentlego.readthedocs.io/zh-cn/latest/modules/tool.html。自定义工具主要分为以下几步:继承 BaseTool 类修改 default_desc 属性(工具功能描述)如有需要,重载 setup 方法(重型模块延迟加载)重载 apply 方法(工具功能实现)其中第一二四步是必须的步骤。

2024-04-28 13:26:39 767

原创 InternLM 实战营 第五课 LMDeploy 量化部署 LLM 实践(实战部分)

(1)下载模型(2)使用Transformer库运行模型(3)使用LMDeploy与模型对话。

2024-04-24 13:08:26 251

原创 InternLM 实战营第五课:LMDeploy 量化部署 LLM 实践(笔记)

LMDeploy 由 MMDeploy 和 MMRazor 团队联合开发是涵盖了 LLM 任务的全套轻量化、部署和服务。本节内容包含:大模型部署背景、大模型部署方法、LMDeploy简介、动手实践环节,共四部分。

2024-04-24 13:08:07 380

原创 InternLM 实战营 第四课 XTuner 微调 LLM:1.8B、多模态、Agent(实战部分)

文本单模态文本+图像多模态Haotian Liu等使用GPT-4V对图像数据生成描述,以此构建出大量– 的数据对。利用这些数据对,配合文本单模态LLM,训练出一个Image Projector。所使用的文本单模型LLM和训练出来的Image Projector,统称为LLaVA模型。Image Projector的训练和测试,有点类似LoRA微调方案。二者都是在已有LLM的基础上,用新的数据训练一个新的小文件。只不过,LLM套上LoRA之后,有了新的灵魂(角色);

2024-04-23 13:24:12 215

原创 InternLM 实战营 第四课 :XTuner 微调 LLM:1.8B、多模态、Agent(笔记部分)

增量预训练和指令跟随是经常会用到两种的微调模式使用场景:让基座模型学习到一些新知识,如某个垂类领域的常识训练数据:文章、书籍、代码等使用场景:让模型学会对话模板,根据人类指令进行对话训练数据:高质量的对话、问答数据。

2024-04-23 13:02:48 303

原创 InternLM 实战营 第三课 ——“茴香豆“:搭建你的 RAG 智能助理(实战练习:在 InternLM Studio 上部署茴香豆技术助手)

在 InternLM Studio 上部署茴香豆技术助手此次是对RAG(Retrieval Augmented Generation)技术的应用实战,使用 InternLM 的 Huixiangdou 文档作为新增知识数据检索来源,在不重新训练的情况下,打造一个 Huixiangdou 技术问答助手。

2024-04-17 09:22:57 133 1

原创 InternLM 实战营 第三课 ——“茴香豆“:搭建你的 RAG 智能助理(笔记)

在商业应用中,大多对数据上网很敏感。RAG技术能够借助远端的大模型API+本部部署RAG应用,实现了个性化数据本地部署。

2024-04-15 08:41:06 143

原创 InternLM 实战营 第二课——轻松玩转书生·浦语大模型趣味 Demo

操作参考:https://github.com/InternLM/Tutorial/blob/camp2/helloworld/hello_world.md。

2024-04-02 13:18:10 230

原创 InternLM 实战营 第一课——书生·浦语大模型全链路开源体系

2023年6月7日:上海人工智能实验室首次发布了InternLM千亿参数语言大模型,这是“书生 浦语”系列的重要起点。2023年7月6日:InternLM模型经历了全面升级,支持了更长的8K语境和多达26种语言,显著提升了模型的通用性和实用性。同时,实验室开源了InternLM-7B模型与全链条的工具体系,为AI社区提供了强大的支持。2023年8月14日:实验室进一步开源了书生·万卷1.0多模态预训练语料库,丰富了AI模型的训练数据来源。

2024-03-29 14:38:56 280

原创 AMF的发现和选择

AMF 选择功能适用于 3GPP 接入和非 3GPP 接入。5G-AN(例如 RAN,N3IWF)、AMF和部分其它CP NF均可支持AMF选择功能。5G-AN(例如 RAN,N3IWF)利用AMF选择功能,为给定的UE选择AMF。AMF支持AMF选择功能以选择AMF用于重定位,或者因为最初选择的 AMF 不是用于服务UE的适当AMF(例如,由于允许的NSSAI的改变)。其他 CP NF(例如SMF)支持AMF选择功能,以在服务于UE的原始AMF不可用时从AMF集合中选择 AMF。本文只关心5G

2020-05-19 00:02:08 7646 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除