自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 OpenCompass 评测 InternLM-1.8B 实践 学习笔记

准备配置文件hf_internlm2_chat_1_8b.py。评测流程:配置 -> 推理 -> 评估 -> 可视化。3. 启动评测--8G显存即可。

2024-08-16 20:33:26 208

原创 XTuner微调个人小助手认知 学习笔记

模型合并:对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 HuggingFace 格式文件。复制以下内容保存下载数据。

2024-08-13 20:13:39 215

原创 InternLM + LlamaIndex RAG 实践

创建一个文件夹llamaindex_demo用于存放示例文件download_hf.pyzhan。可以看出此时模型并不知道XTuner是什么而胡乱回答,因此使用RAG技术进行辅助。打开llamaindex_internlm.py 贴入以下代码并运行。粘贴以下内容进行模型下载。随后下载NLTK相关资源。最后进行web界面部署。贴入以下代码并执行提问。

2024-08-12 17:26:59 131

原创 浦语提示词工程实践

随后构建自己的结构化提示词————干饭大师。进入后进行LMDeploy部署。

2024-08-12 16:25:00 195

原创 8G 显存玩转书生大模型 Demo

创建一个cli_demo.py文件并粘贴以下代码。首先克隆InternLM代码并执行。streamlit部署。运行程序即可开始提问。

2024-08-12 15:01:11 119

原创 书生大模型全链路开源开放体系

2024年7月初,InternLM2.5-7B-Chat大模型开源,性能远超同量级大模型。拥有XTuner模型微调工具、LMDploy部署工具等全套工具链。通过模拟人的解决思路解决复杂问题。大海捞针实验取得亮眼数据。原生推理能力大幅提升。

2024-08-12 14:22:46 164

原创 InternLM Git学习笔记

fork InterLM分支。

2024-08-11 22:20:45 132

原创 InternLM Python 学习笔记

实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。连接后安装python拓展和调试器。在远程连接配置文件中添加如下内容。输入内容,按F10逐行执行。

2024-08-11 17:32:40 171

原创 InternLM Linux端口映射 学习笔记

3. 创建hellowrod.py文件并粘贴以下代码。2. 复制ssh远程连接指令进行远程访问。5. 执行helloworld.py。1. 启动openxlab开发机。

2024-08-11 17:01:51 175

原创 Datawhale Task4 学习笔记

Agent 是一种智能体,负责在特定环境中执行任务。大语言模型(LLM):作为智能体的“大脑”,处理信息,从交互中学习,做出决策并执行行动。观察:智能体的感知机制,使其能够感知环境中的变化。思考:分析观察结果和记忆内容并考虑可能的行动。行动:智能体对其思考和观察的显式响应,如生成代码或执行操作。记忆:存储过去的经验,帮助智能体调整未来的行动。Agent 设计与优化是一个复杂但重要的过程。通过合理设计 Agent 的观察、思考和行动流程,可以实现高效、准确的任务执行。

2024-08-03 14:58:36 131

原创 Datawhale Task3 学习笔记

LoRA(Low-Rank Adaptation)是一种用于高效微调大型语言模型的方法。传统的微调方法需要调整模型的所有参数,这在处理大型模型时会消耗大量的计算资源和存储空间。LoRA 提供了一种高效的替代方案,通过对模型参数进行低秩分解,只需调整少量参数即可实现微调效果。

2024-08-03 14:50:28 299

原创 DataWhale AI学习笔记一

数据增强是通过对原始数据进行各种变换来生成新的训练样本,提高模型的泛化能力,特别是在图像和文本数据处理中很常见。把数据集按照一定比例分成训练集、验证集和测试集,常见比例是8:1:1。这样可以保证训练和测试的公平性。数据清洗是把原始数据中的“脏数据”去掉,比如重复的记录、不完整的数据等。大模型通常需要特定格式的数据,比如JSON、CSV等。数据预处理是大模型训练的第一步,好的数据预处理可以让模型效果更好。对文本进行同义词替换、随机插入等操作,可以使用。对图像进行旋转、缩放、平移等操作,可以使用。

2024-07-30 22:23:27 154

原创 CV第二课

深度学习(Deep Learning)是机器学习的一个分支,它使用神经网络模拟人脑的学习方式,从大量数据中自动学习和提取特征,进行预测和决策。深度学习依赖于,每一层接受前一层的输出,并通过权重和激活函数进行计算,传递到下一层神经元。神经元模型是模拟生物神经元行为的计算模型,它在人工智能和机器学习领域扮演着核心角色。神经元就像人体大脑中的微小开关,能够接收来自其他神经元的信号,并根据这些信号的产生反应。在人工智能中,我们用数学模型来模拟这种生物神经元的行为。一个简单的神经元模型包括。

2024-07-17 22:30:51 707

原创 Datawhale AI 夏令营 学习笔记1

使用。

2024-07-12 11:48:44 422

原创 域控制器开发环境搭建

启动本地终端并进入src源码目录下。回到docker打包install。选择bc2...这个镜像并进入。进入网络添加如下配置并启用。得到install文件。备份原有install。

2024-05-29 11:32:42 216

原创 VTD仿真教程

选择files-Scenarios-04_frontcar_cutin_5_1.xml。选择NationalCompetition(13)显示如下画面即为启动成功。

2024-05-29 10:16:37 573 1

原创 InternLM(第二期)第一课

升级了InterLM的工具调用能力能实现复杂的任务、拥有强大的内生计算能力、代码解释器更加完善、实用的数据分析能力。模型评测: 使用OpenCompass等工具进行评测。1. 大模型演变历程——专用大模型转变为通用大模型。环境交互类型选择: 构建智能体(agent)。模型选型: 根据业务需求选择合适的模型。业务场景分析: 评估算力和环境交互需求。模型部署: 将模型部署到实际应用中。参数微调: 根据场景选择微调形式。构建智能体: 根据需求构建。4. 书生浦语全链条开放体系。2. 书生浦语大模型的优势。

2024-04-02 12:57:09 523 1

原创 InternLM实战营第二期

1. 运行cli_demo。

2024-04-01 16:10:29 651

原创 mmpretrain

1.训练代码2.评估代码或3.推理代码。

2023-06-10 16:27:02 101

原创 openmmlab-mmdet

从image_id中提取出正确的图像ID。# 获取图像的height和width。# 获取多边形顶点坐标。# 计算多边形的边界框。# 获取图像的文件名和大小。# 添加categories信息。# 获取多边形注释信息。# 初始化COCO格式字典。# 遍历每个图像的注释信息。# 保存COCO格式文件。# 读取JSON文件。# 添加info信息。

2023-06-10 16:20:51 92

原创 mmpretrain两种预测方式

2. image_demo.py推理。

2023-06-10 16:20:15 160

原创 标签可视化

获取多边形顶点坐标。# 获取图像的文件名和大小。# 在子图中显示图像和注释。# 计算子图的行和列索引。# 获取多边形注释信息。# 调整子图的间距和轴的可见性。# 随机选择16个图像ID。# 创建一个4x4的子图。# 获取所有图像的ID。# 读取JSON文件。# 遍历每个图像ID。

2023-06-10 16:15:09 74

原创 openmmlab MMpretrain笔记

MMPretrain是一个预训练开源算法框架,目的是提供各种预训练主干网络,并支持不同的预训练策略。包含:主干模型、自监督学习算法、多模态学习算法,支持各种类型数据集。主干模型支持ResNet,Vision Transformer, VGG,MobileNet V2/V3,ShuffleNet v1/v2/v3等。自监督学习算法支持SimCLR,MAE,MoCo v1/v2/v3。多模态算法支持CLIP,BLIP,OFA。

2023-06-06 13:12:12 78 1

原创 openmmlab 学习笔记

代码本身可以确定是没有问题的,最后发现问题出现在Pytorch和CUDA版本不兼容的问题上。问题的发现可以在终端中输入'python'命令,运行python后,输入。模型预测时遇到报错AssertionError: Torch not compiled with CUDA enabled。如果输出的结果是False,那么说明当前的Pytorch版本无法使用显卡。并安装对应版本pytorch。查看当前cuda版本。

2023-06-05 13:31:50 140 1

原创 openmmlab实战营第二期笔记

因此,在SPR的基础上提出了Hierarchical SPR,通过根据自由度和变形程度将根关节和身体关节划分为四个层次,利用级联的Hourglass作为主干网络,利用置信回归分支回归根节点的热力图,并额外添加了一个位移回归分支来估计身体关节。RLE的思路是用可学习的、表达能力更强的分布替代简单的高斯分布,更好地拟合关键点位置的实际分布。PPTR的单阶段算法中,人体检测和关键点检测共享一个图像特征网络,它设计了STN模块,从完整特征图中裁剪出与每个人体实例对应的图像特征,用于后续的关键点检测。

2023-06-03 23:41:44 38

原创 open MMlab学习笔记五

学习笔记

2023-02-08 23:01:20 132

原创 open MMlab学习笔记四

学习笔记

2023-02-07 22:33:18 119

原创 open MMlab学习笔记三

configs---- 其中configs保存了不同论文的不同实验的各种配置,包括模型,数据集,优化器,等等之类的。_base_ = []其中是一些默认设置,_base_是一个configs目录下的一个文件夹。mmseg---- 其中mmseg主要包含了用于初始化dataset和model的类文件,训练文件(apis/train.py,训练部分的pipeline)还有一些其他辅助类的文件(log之类的)。tools---- tools就是分布式训练的command(dist_train.sh)和

2023-02-04 23:37:34 293

原创 open MMlab学习笔记二

学习笔记

2023-02-03 22:00:34 95

原创 open MMlab第一课笔记

学习笔记

2023-02-02 22:45:39 160 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除