自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 《书生·浦语大模型实战营》第6次学习笔记

需求分析明确您想要实现的功能和目标。确定您的智能体需要哪些特定的能力或服务。了解AgentLego架构研究AgentLego的设计理念和架构,了解其提供的API和模块。选择基础模块从AgentLego提供的工具库中选择适合您需求的基础模块。设计工具逻辑设计您的自定义工具的逻辑流程和算法。开发工具使用AgentLego提供的API和接口开发您的工具。编写代码实现自定义功能。集成与测试将您的自定义工具集成到AgentLego框架中。进行单元测试和集成测试,确保工具按预期工作。优化性能。

2024-06-29 22:11:09 1142

原创 《书生·浦语大模型实战营》第5次学习笔记

将训练好的模型转换为适合部署的格式,例如使用ONNX、TensorFlow SavedModel、PyTorch TorchScript等。:大型模型结构复杂,可能包含数百万甚至数十亿的参数,这要求部署环境能够理解和执行复杂的模型架构。:为了在有限的硬件资源上运行,大型模型可能需要进行模型剪枝、量化、知识蒸馏等优化操作。:大模型通常需要强大的计算能力,因此部署时需要考虑GPU或其他专用硬件的支持。:大型模型往往需要大量的计算资源,包括高性能的CPU、GPU或TPU等。

2024-06-29 15:54:29 312

原创 《书生·浦语大模型实战营》第4次学习笔记

通过结合低秩适应和量化,QLoRA能够在保持模型性能的同时,进一步减少内存占用和计算需求,使得在资源受限的环境中部署大型模型变得更加可行。微调通常涉及在预训练模型的基础上,使用特定任务的数据集进行进一步的训练,以调整模型的参数,使其更好地适应新的任务。微调的优势在于,它可以在相对较小的数据集上实现较好的性能,因为预训练模型已经学习到了通用的语言表示。:XTuner内置了多种高效的训练策略,如混合精度训练、梯度累积等,可以在保证模型性能的同时,显著减少训练时间和资源消耗。

2024-06-26 19:34:13 1684

原创 《书生·浦语大模型实战营》第3次学习笔记

RAG(Retrieval-Augmented Generation)是一种结合了检索(retrieval)和生成(generation)的AI技术,主要用于自然语言处理任务。它的核心思想是通过检索外部知识库来增强生成模型的输出质量。

2024-06-26 19:30:09 265

原创 《书生·浦语大模型实战营》第2次学习笔记

本文介绍了书生·浦语大模型实战营的第二次课程内容,包括三个预设的demo:InternLM-Chat-7B智能对话、Lagent工具调用解简单数学题、浦语·灵笔多模态图文创作和理解。文章提供了从环境配置到代码运行的一系列步骤,帮助读者在InternStudio平台上成功运行这些demo。通过本文的学习,读者可以掌握在InternStudio平台上配置和运行大模型demo的完整流程,包括环境配置、依赖安装、模型下载、代码准备和终端运行。这些步骤不仅适用于本文提到的demo,也为类似项目的实施提供了参考模板。

2024-06-26 19:24:44 306

原创 《书生·浦语大模型实战营》第1次学习笔记

性能提升得益于模型架构的优化、训练数据的质量提升以及更高效的训练策略。InternLM2能够理解和响应用户的情感和需求,提供更加个性化的服务。例如,在客户服务场景中,模型能够根据用户的情绪调整回复策略,提供更加贴心的支持。模型在对话中展现出更高的人文关怀,能够理解和回应复杂的情感和社交线索。例如,模型可以调用搜索引擎、数据库等资源,提供更准确和全面的信息。模型在代码理解和生成方面取得了显著进步,能够理解和生成多种编程语言的代码。提供高质量的训练数据,支持模型的预训练和微调。

2024-06-25 12:35:32 651

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除