MindSpore简介

MindSpore可以做模型的自动切分这一点让人印象深刻。当然,还有很多特点,比如自动微分、支持动态图+静态图,等等。如果希望了解更多,请看MindSpore官网:

MindSpore​www.mindspore.cn/

对于个人来讲,去年便对MindSpore有简单了解,做过一些其与TensorFlow、PyTorch的对比分析。因为此前尚未开源,只能基于公开的文档做调研而已。

而三月底,在HDC大会时,华为正式开源了MindSpore的源码和相应的文档。因而有机会实际拿来运行看看,本文将介绍如何在Windows平台安装和搭建MindSpore,同时训练一个小的网络(LeNet)。

安装MindSpore

截至今天,MindSpore官网建议的安装操作系统为EulerOS和Ubuntu,并不包括Windows。而不幸的是我的这台Lenovo游戏主机是Windows 10的系统。

仔细了下文档,发现实际上MindSpore是支持Windows平台的[1],只不过只能以CPU的模式运行(暂时不支持Windows平台的GPU)。如果希望尝试MindSpore对GPU的支持,需要使用Ubuntu系列或者华为的EulerOS(这也不是本文的重点)。

下面进入安装的正题。

安装Anaconda

非常推荐使用Anaconda作为Python虚拟环境的管理。

你可以去Anaconda官网下载,一路Next即可。如果遇到问题,可适当参考这里

由于Anaconda的安装过程简单直观,这里不详述了。

创建MindSpore的Python Env

目前MindSpore仅仅支持Python 3.7.5,下面创建的pyhton env就叫做mindspore:

conda create -n mindspore python=3.7.5

安装MindSpore

下载MindSpore的whl文件,下载地址见这里,目前只有一个0.1.0的版本

mindspore-0.1.0-cp37-cp37m-win_amd64.whl

在mindspore这个python env里执行:

conda activate mindspore

# 此时你应该在mindspore-0.1.0-cp37-cp37m-win_amd64.whl这个文件的目录里
pip install mindspore-0.1.0-cp37-cp37m-win_amd64.whl

注意,这里很多同学反应安装过程很慢,甚至有失败的情况,基本都是网络惹得祸。因为安装上面的whl文件时会按照一些依赖的libraries,如果你的pip是默认源的话,在国内的网络下载时可能遇到问题的。一个解决办法是重试(yes, just retry),另一个办法是把pip源切换为国内的源,比如清华源。具体方法见这里:

Tsinghua Open Source Mirror​mirror.tuna.tsinghua.edu.cn/help/pypi/正在上传…重新上传取消​

一个临时的办法可以是:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple mindspore-0.1.0-cp37-cp37m-win_amd64.whl

验证Spore安装是否成功

python
>>> import mindspore as ms
>>> print(ms.__version__)
# 如果成功,上面应该打印 0.1.0

训练一个LeNet

华为官方已经在其MindSpore Doc这个Repo里内置了一些examples,比如LeNet。

直接Fork吧:

git clone https://github.com/mindspore-ai/docs.git

如果你和我一样懒,仅仅下载lenet.py也可以,路径如下:

https://github.com/mindspore-ai/docs/blob/master/tutorials/tutorial_code/lenet.py

训练LeNet

因为这个代码里默认使用的训练设备为Ascend,所以需要手动设置一下--device_targetCPU

python lenet.py --device_target CPU

MindSpore用LeNet训练MNIST

大约十几秒就可以跑完一个Epoch了:

******Downloading the MNIST dataset******
============== Starting Training ==============
epoch: 1 step: 1, loss is 2.3008137
epoch: 1 step: 2, loss is 2.299688
epoch: 1 step: 3, loss is 2.309444
epoch: 1 step: 4, loss is 2.3006275
epoch: 1 step: 5, loss is 2.3028035
epoch: 1 step: 6, loss is 2.302422
epoch: 1 step: 7, loss is 2.3067183
epoch: 1 step: 8, loss is 2.3057096
epoch: 1 step: 9, loss is 2.3042586
epoch: 1 step: 10, loss is 2.303799
...
...
...
epoch: 1 step: 1870, loss is 0.15847126
epoch: 1 step: 1871, loss is 0.12955114
epoch: 1 step: 1872, loss is 0.15605931
epoch: 1 step: 1873, loss is 0.28985676
epoch: 1 step: 1874, loss is 0.14183074
epoch: 1 step: 1875, loss is 0.05726877
============== Starting Testing ==============
============== Accuracy:{'Accuracy': 0.9625400641025641} ==============

看看Accuracy,已经到96.25%,还可以~

我们观察一下这个目录,会看到同时还保存了模型文件(.ckpt和.meta)还有train、val时的pb文件,具体待后面再讲。

04/25/2020  12:21 PM           494,155 checkpoint_lenet-1_1875.ckpt
04/25/2020  12:20 PM            15,033 checkpoint_lenet-graph.meta
04/25/2020  02:36 PM             4,831 ms_output_0eval.pb
04/25/2020  02:36 PM            15,878 ms_output_0train.pb

避坑指南

也许在上面你会遇到MNIST数据集下载的问题。

以我自己为例,在电信的宽带下载MNIST几乎是龟速,实在没法忍,想起此前在其他Repo下载过这个数据集的几个gz文件。于是copy进lenet.py里定义的路径:

train_path = "./MNIST_Data/train/"
test_path = "./MNIST_Data/test/"

需要注意的是需要分别copy train-*./MNIST_Data/train, t10k-*./MNIST_Data/test

如果你之前没下载过,你可以直接在这里下载下面这个link的MNIST_DATA的压缩包,解压到lenet.py的同级目录即可:

https://gitee.com/loveunk/mindspore/blob/master/example/_lenet_demo/MNIST_Data.zip


如果本文对你有帮助,欢迎“三连”~

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

irrationality

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值