自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第8天 | 基于MindSpore通过GPT实现情感分类

准备一个可以处理特定特殊令牌的GPTTokenizer对象,以适应后续的NLP任务需求。加载数据集,甚至训练集合测试集。将训练集划分为训练和验证集。

2024-07-03 19:29:05 135

原创 昇思25天学习打卡营第7天 | 基于MindSpore的GPT2文本摘要

样本地址:url = ‘https://download.mindspore.cn/toolkits/mindnlp/dataset/text_generation/nlpcc2017/train_with_summ.txt’教程中使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。构建GPT2ForSummarization模型,注意shift right的操作。从train_dataset数据集中创建一个元组迭代器,查看迭代器的下一个元素。构建最终输入的训练集。

2024-07-02 01:51:18 270

原创 昇思25天学习打卡营第6天 | 基于MindSpore实现BERT对话情绪识别

BERT,全名为“变换器架构中的双向编码器表示”(Bidirectional Encoder Representations from Transformers),是谷歌在2018年底推出的一种先进的语言处理模型。该模型,特别设计来对自然语言处理的多种任务,例如文本问答、实体识别、语义理解和文本分类,提供强大的支持。BERT基于Transformer的编码器构建,并采纳了双向架构以增强语言理解能力。

2024-06-29 08:54:28 311

原创 昇思25天学习打卡营第5天 | MindSpore使用静态图加速

动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。有关静态图模式的运行原理,可以参考。

2024-06-28 00:23:29 514

原创 昇思25天学习打卡营第4天 | “孢子”的模型训练、保存与加载

文章目录模型训练构建数据集定义神经网络模型定义超参、损失函数和优化器训练与评估保存与加载模型权重MindIR模型训练构建数据集复习:import mindsporefrom mindspore import nnfrom mindspore.dataset import vision, transformsfrom mindspore.dataset import MnistDataset# Download data from open datasetsfrom download im

2024-06-26 23:58:03 749

原创 昇思25天学习打卡营第3天 | “孢子”的网络构建

定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。nn.ReLU(),nn.ReLU(),构建完成后,实例化Network对象,并查看其结构# 构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。# 通过一个nn.Softmax层实例来获得预测概率。

2024-06-23 12:43:21 925

原创 昇思25天学习打卡营第2天 | “孢子”的数据处理

Pipeline的设计理念使得数据集的常用操作采用dataset = dataset.operation()的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。map操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,并返回包含变换后元素的新数据集。

2024-06-23 01:25:50 852

原创 昇思25天学习打卡营第1天 | 初探“孢子”-MindSpore

_init__包含所有网络层的定义,construct中包含数据(Tensor)的变换过程。这里我们使用map对图像数据及标签进行变换处理,然后将处理好的数据集打包为大小为64的batch。打印每一轮的loss值和预测准确率(Accuracy),可以看到loss在不断下降,Accuracy在不断提高。我发现训练的时候 npu 并不能满载运行训练速度有点慢,不知道是不是数据量太小了,数据在加载的时候也比较慢。,通过数据集(Dataset)和数据变换(Transforms)实现高效的数据预处理。

2024-06-19 12:29:21 1146

原创 使用 MMSegmentation 构建训练手写字迹分割模型

MMSegmentation 是一个用于语义分割的开源工具箱,它基于 PyTorch 实现。它是 OpenMMLab 项目的一部分。语义分割是将图像分割成属于同一对象类别的部分的任务,它是一个像素级别的预测形式,旨在为图像中的每个像素分配一个类别标签。MMSegmentation 提供了一个统一的接口以及大量的预训练模型和配置文件,为研究者和开发者在各种标准数据集上进行语义分割实验提供便利。用户可以基于这些模型和配置文件来进行自己的训练和测试,或者对它们进行定制化的修改以适应特定需求。

2024-06-16 09:54:27 720

原创 Docker使用手账

Docker使用手账文章目录Docker使用手账将用户添加到docker组Docker 镜像的常见操作构建 Docker 镜像查看镜像使用镜像管理镜像推送和拉取镜像保存和加载镜像删除操作Docker 容器的常见操作基础启动命令常见的启动选项其他高级选项对docker容器的一些操作查看容器启动和停止容器进入容器重启容器删除容器查看容器日志复制文件和目录查看容器信息暂停和恢复容器Docker镜像管理Docker镜像在设备间的传输BUGS及其解决方法将用户添加到docker组要将用户添加到 doc

2024-06-12 10:48:39 1039

原创 Ollama创建微调模型

converted.bin为上一步转换模型得到的文件,quantized.bin为量化后的文件,q4_0为量化选项表示使用 4bit 量化(官方推荐),当然还有很多的量化选项,具体参见。这里只需要将 Modelfile 中 FROM 后面的文件路径替换为模型文件的目录即可,my-llama3是自定义的在 ollama 中的模型名称。,具体用哪个脚本进行转换我没有找到官方文档说明,建议一个不行就试另一个,在我使用过的模型中llama3 8b和 qwen 7b都是需要使用。

2024-06-08 10:37:42 1204

原创 Atlas智能小车部署

Atlas智能小车部署流程梳理

2022-04-15 00:00:48 1890

原创 【生成密钥免密登陆服务器】

生成的秘钥分为公钥和私钥两种,接下来需要将刚才生成的公钥 id_rsa.pub 写入到服务器的 authorized_keys 中。编辑完成后关闭重开 VScode 就可以在左侧的 remote SSH 插件中找到刚才添加的服务器了,点击进入即可免密登录。接下来根据提示为私钥添加密码,一般情况可以直接 Enter 两次跳过,如若情况特殊可自行设置密码。首先,先在 Windows 的 powershell 里面输入以下命令生成秘钥。至此,就可以在终端使用ssh免密登录服务器了。

2021-12-14 15:33:12 1779 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除