自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 Flask实用小工具制作——局域网内,手机(电脑)传输文件到电脑

利用flask制作了一款实用小工具,可在局域网内,将手机(电脑)传输文件到电脑。

2024-10-11 22:01:49 255

原创 昇思25天学习打卡营第9天|基于MindSpore Quantum的Grover搜索算法和龙算法

Grover搜索算法的基本原理:首先通过 Hadamard 门产生均匀叠加态,然后反复调用Grover迭代(或称为 𝐺 算子),以放大目标项的概率振幅同时抑制非目标项的概率振幅(该方法称之为振幅放大),最后对末态进行测量,那么就能以极大的概率得到目标态 |𝜔⟩。Grover搜索算法被公认为是继Shor算法后的第二大量子算法,也是第一个被完整的实验实现的量子算法,它解决的是无序数据库搜索问题。此外,Grover搜索算法中用到的振幅扩大技巧,对许多启发式的经典搜索算法可以实现加速,因而具有广泛的应用。

2024-07-03 12:18:33 701

原创 昇思25天学习打卡营第8天|保存与加载--使用静态图加速

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署。保存和加载模型权重保存模型使用save_checkpoint接口,传入网络和指定的保存路径。保存和加载MindIR除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的中间表示(Intermediate Representation,IR)。可使用export接口直接将模型保存为MindIR。

2024-07-02 12:17:19 240

原创 昇思25天学习打卡营第7天|模型训练

批次大小(batch size):数据集进行分批读取训练,设定每个批次数据的大小。batch size过大,不同batch的梯度方向没有任何变化,容易陷入局部极小值,因此需要选择合适的batch size,可以有效提高模型精度、全局收敛。学习率(learning rate):如果学习率偏小,会导致收敛的速度变慢,如果学习率偏大,则可能会导致训练不收敛等不可预测的结果。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。

2024-07-01 13:12:54 187

原创 昇思25天学习打卡营第6天|函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。𝑥 为输入,𝑦为正确值,𝑤和𝑏是我们需要优化的参数。

2024-06-30 12:37:54 455

原创 昇思25天学习打卡营第5天| 网络构建

网络内部神经网络层具有权重参数和偏置参数(如nn.Dense),这些参数会在训练过程中不断进行优化,可通过 model.parameters_and_names() 来获取参数名及对应的参数详情。

2024-06-29 09:52:15 199

原创 昇思25天学习打卡营第4天| 数据变换 Transforms

mindspore.dataset.vision模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了Rescale、Normalize和HWC2CHW变换。Rescale变换用于调整图像像素值的大小.。Normalize变换用于对输入图像的归一化。HWC2CHW变换用于转换图像格式。mindspore.dataset.text模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。分

2024-06-28 22:44:58 881

原创 昇思25天学习打卡营第3天|数据集 Dataset

是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,并返回包含变换后元素的新数据集。将数据集打包为固定大小的batch是在有限硬件资源下使用梯度下降进行模型优化的折中方法,可以保证梯度下降的随机性和优化计算量。

2024-06-27 13:14:54 119

原创 昇思25天学习打卡营第2天|张量 Tensor

Tensor可以和NumPy进行互相转换。

2024-06-26 18:22:20 112

原创 昇思25天学习打卡营第1天|MindSpore快速入门

通过MindSpore的API来快速实现一个简单的深度学习模型MindSpore快速入门。

2024-06-25 13:46:21 234

Flask实用小工具制作-局域网内,手机(电脑)传输文件到电脑

windows下打包好的程序,解压即用

2024-10-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除