自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第10天 | SSD目标检测

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。

2024-07-05 17:20:22 791

原创 昇思25天学习打卡营第9天 | FCN语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。这一部分主要对训练出来的模型效果进行评估,为了便于解释,假设如下:共有k1k+1k1个类(从L0L_0L0​到LkL_kLk​, 其中包含一个空类或背景),pijp_{i j}pij​表示本属于iii类但被预测为jjj。

2024-07-01 16:14:32 884

原创 昇思25天学习打卡营第8天 | ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-06-30 15:28:25 1008 1

原创 昇思25天学习打卡营第7天 | ResNet50迁移学习

普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。,数据集中的图像来自于ImageNet,每个分类有大约120张训练图像与30张验证图像。使用固定特征进行训练的时候,需要冻结除最后一层之外的所有网络层。接口下载数据集,并将下载后的数据集自动解压到当前目录下。

2024-06-26 10:28:14 237

原创 昇思25天学习打卡营第6天 | ResNet50图像分类

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-06-25 16:24:36 935

原创 昇思25天学习打卡营第5天 | MindSporeAPI小结,建立简单的深度学习模型

本文为前四天打卡学习的阶段性总结,API的详细用法可以参考前文。

2024-06-24 15:16:50 890

原创 昇思25天学习打卡营第4天 | 保存与加载、使用静态图加速

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-06-23 13:00:26 1028

原创 昇思25天学习打卡营第3天 | 函数式自动微分、模型训练

nn.ReLU(),nn.ReLU(),epochs = 3'''我们通过model.trainable_params()方法获得模型的可训练参数,并传入学习率超参来初始化优化器。'''

2024-06-22 14:02:42 728

原创 昇思25天学习打卡营第2天 | 数据变换、网络构建

首先我们构造一个shape为(3, 28, 28)的随机数据(3个28x28的图像),依次通过每一个神经网络层来观察其效果。当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,用于定义要执行的计算逻辑,所有子类都必须重写此方法。方法不可直接调用。相关内容详见使用静态图加速。

2024-06-20 19:16:51 817

原创 昇思25天学习打卡营第1天 | MindSpore介绍、张量、数据集

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。

2024-06-19 20:26:24 1158 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除