【啃书吧:深度学习与MindSpore实践】第四章 4.6 用MindSpore实现深度神经网络(下)

初读:2021年4月7日至2021年4月15日

啃书进度会在目录中标出来。本次目标是完成第四章 4.6节用MindSpore实现神经网络的代码部分(P52-P54)。进展017.png

AlexNet论文中代码实现使用了双RTX580 GPU,model_zoo官方模型也是基于双GPU卡实现。我只有一个1050Ti,官方配置的模型跑不起来,而且似乎AlexNet对于这块卡也过大了,自己写的的模型跑半分钟就挂掉。为了完成今天的作业,勉强用CPU上一个epoch。闲言少叙,继续啃书:

4.6.2  详细步骤

下面描述使用AlexNet网络训练和推理的详细步骤,并给出示例代码。官方的AlexNet源码链接:https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/alexnet。

1. 加载MindSpore模块

使用MindSpore API前需要先导入MindSpore API和辅助模块,如代码4.1所示。

代码4.1.png

2. 导入数据集

使用MindSpore 数据格式API创建数据集,并对数据进行预处理。本例使用cifar10数据集。数据集下载链接:http://www.cs.toronto.edu/~kriz/cifar.html。下载“CIFAR-10 binary version ”并解压。

代码4-数据处理.png

3. 定义AlexNet网络

核心代码如代码4.2所示

代码4.2.png

__init__()函数完成卷积层和全连接层的初始化。初始化参数包括输入个数、输出个数、卷积层参数以及卷积核大小。因为原始数据集的图片大小是32×32×3,所以在创建数据集的过程中需要将输入大小转变成227×227×3。

4.  设置超参数并创建网络

定义损失函数和优化器。损失函数使用SoftmaxCrossEntroyWithLogit,采用Softmax进行交叉熵计算。选用Momentum优化器,学习率设置为0.1,动量为0.9,核心 代码如代码4.3 所示

代码4.3.png

5. 训练网络模型

把网络、损失函数和优化器传入模型中,调用train()方法即可开始训练,返回“Epoch time”说明训练过程结束。核心 代码如代码4.4所示。

代码4.4.png

不得不说,用CPU训练的速度实在慢。用cifar10这么小的数据集,一个epoch用了将近半小时,ImageNet就别想了。归根到底,想玩深度学习,配置必须要能接得住才行。

转自文章链接:https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=121267

感谢作者的努力与分享,侵权立删!

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值