自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 茴香豆本地标准版搭建作业

企业级知识问答工具实践闯关任务

2024-08-25 14:34:52 222

原创 MindSearch CPU-only 版部署

MindSearch CPU-only 版部署

2024-08-23 23:59:47 377

原创 InternVL 部署微调实践

InternVL 是一种用于多模态任务的深度学习模型,旨在处理和理解多种类型的数据输入,如图像和文本。它结合了视觉和语言模型,能够执行复杂的跨模态任务,比如图文匹配、图像描述生成等。通过整合视觉特征和语言信息,InternVL 可以在多模态领域取得更好的表现

2024-08-19 20:09:54 284 4

原创 Lagent 自定义你的 Agent 智能体

基于 Lagent 自定义自己的智能体。Lagent 中关于工具部分的介绍文档位于 https://lagent.readthedocs.io/zh-cn/latest/tutorials/action.html。继承 BaseAction 类实现简单工具的 run 方法;或者实现工具包内每个子工具的功能简单工具的 run 方法可选被 tool_api 装饰;工具包内每个子工具的功能都需要被 tool_api 装饰下面实现一个调用 MagicMaker API 以完成文生图的功能。

2024-08-17 19:44:54 468

原创 LMDeploy量化部署实践任务

LMDeploy 量化部署实践闯关任务

2024-08-17 13:13:04 317

原创 LangGPT结构化提示词编写实践

LangGPT 项目旨在通过使用结构化的、基于模板的方法,促进为每个人无缝创建高质量的 ChatGPT 提示。它可以被看作是一种专门为设计大型语言模型的提示而设计的编程语言。当前的提示式设计方法往往只提供少数技巧和原则,而没有系统和适应性强的视角。LangGPT 通过整合模板、变量和命令来改变提示设计过程,使提示创建能够像面向对象编程一样直观和直接。LangGPT 为大规模、高效生产高质量提示奠定了基础。

2024-07-27 15:04:53 271

原创 书生大模型全链路开源体系笔记

书生大模型全链路开源体系笔记

2024-07-26 09:55:48 275

原创 llamaindex+Internlm2 RAG实践

llamaindex+Internlm2 RAG实践

2024-07-24 16:45:14 566

原创 XTuner微调个人小助手认知

XTuner微调个人小助手认知

2024-07-23 16:36:47 318

原创 8G 显存玩转书生大模型 Demo

8G显存玩转书生大模型。

2024-07-23 08:04:48 627

原创 OpenCompass 评测 InternLM-1.8B 实践

上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。

2024-07-23 06:19:46 1288

原创 Python task

请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。

2024-07-11 20:17:32 249

原创 SSH连接与端口映射

SSH全称Secure Shell,中文翻译为安全外壳,它是一种网络安全协议,通过加密和认证机制实现安全的访问和文件传输等业务。SSH 协议通过对网络数据进行加密和验证,在不安全的网络环境中提供了安全的网络服务。SSH 是(C/S架构)由服务器和客户端组成,为建立安全的 SSH 通道,双方需要先建立 TCP 连接,然后协商使用的版本号和各类算法,并生成相同的会话密钥用于后续的对称加密。在完成用户认证后,双方即可建立会话进行数据交互。

2024-07-10 14:00:11 565

原创 复现GLM4-9B

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。

2024-06-05 15:56:02 1478 1

原创 XTuner 微调 LLM:1.8B、多模态、Agent实战笔记

XTuner 微调 LLM:1.8B、多模态

2024-05-25 16:33:45 1029

原创 浦语大模型趣味 Demo笔记

八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳 均是在第一期实战营中运用 InternLM2-Chat-1.8B 模型进行微调训练的优秀成果。其中,八戒-Chat-1.8B 是利用《西游记》剧本中所有关于猪八戒的台词和语句以及 LLM API 生成的相关数据结果,进行全量微调得到的猪八戒聊天模型。作为 Roleplay-with-XiYou 子项目之一,八戒-Chat-1.8B 能够以较低的训练成本达到不错的角色模仿能力,同时低部署条件能够为后续工作降低算力门槛。

2024-05-24 21:40:24 661 1

原创 书生·浦语大模型全链路开源体系笔记

专用模型:针对特定任务,一个模型解决一个问题。通用大模型:一个模型应对多种任务、多种模态。

2024-05-24 18:52:45 1045

原创 Lagent & AgentLego 智能体应用搭建实战笔记

Lagent 和AgentLego智能体应用搭建。

2024-05-24 13:35:24 861 1

原创 LMDeploy 量化 部署 LLM&VLM 实践

LMDeploy 量化部署 LLM&VLM 实践

2024-05-23 21:16:51 1156 1

原创 OpenCompass 大模型评测实战

上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。

2024-05-23 16:52:56 1180 1

原创 书生·浦语大模型实战营之茴香豆:搭建你的 RAG 智能助理

RAG(Retrieval Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的技术,旨在通过利用外部知识库来增强大型语言模型(LLMs)的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确、更丰富的回答。RAG 能够让基础模型实现非参数知识更新,无需训练就可以掌握新领域的知识。本次实验选用茴香豆快速搭建RAG智能助理。

2024-05-22 21:14:06 1167 1

原创 24G显存 微调 Llama3 图片理解多模态

本次实验基于 Llama3-8B-Instruct 和 XTuner 团队预训练好的 Image Projector 微调自己的多模态图文理解模型 LLaVA。实验平台为[InternStudio](https://studio.intern-ai.org.cn/),实验所用的显存为24G。

2024-05-09 19:42:15 1505 1

原创 Llama 3 Agent 能力体验+微调

本次实验基于AutoDL平台使用A40显卡做的实验,使用 XTuner 在 Agent-FLAN 数据集上微调 Llama3-8B-Instruct,以让 Llama3-8B-Instruct 模型获得智能体能力。Agent-FLAN数据集是上海人工智能实验室 InternLM 团队所推出的一个智能体微调数据集,其通过将原始的智能体微调数据以多轮对话的方式进行分解,对数据进行能力分解并平衡,以及加入负样本等方式构建了高效的智能体微调数据集,从而可以大幅提升模型的智能体能力

2024-05-09 09:54:51 1125

原创 LMDeploy 高效部署 Llama3 实践

本次实验基于InternStudio平台使用24G算力做的实验,使用LMDeploy部署Llama3。

2024-05-07 21:39:08 1244

原创 使用XTuner微调Llama3-8B

l这个教程,有兴趣者可以访问了解一下。查看合并权重文件,如下图所示。下图所示即为模型合并完成。生成数据的部分截图所示。下图为训练好的模型图片。

2024-05-06 20:34:57 442

原创 llama3-8B模型8G显存量化部署

本次Lama-3的介绍与前两个版本差不多,大量的测试数据和格式化介绍。但Meta特意提到Llama-3使用了掩码和分组查询注意力这两项技术。目前,大模型领域最流行的Transformer架构的核心功能是自我注意力机制,这是一种用于处理序列数据的技术,可对输入序列中的每个元素进行加权聚合,以捕获元素之间的重要关系。但在使用自我注意力机制时,为了确保模型不会跨越文档边界,通常会与掩码技术一起使用。在自我注意力中,掩码被应用于注意力权重矩阵,用于指示哪些位置的信息是有效的,哪些位置应该被忽略。

2024-05-06 14:15:46 3725 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除