mindspore的nn
nn是深度学习的基础和核心,而mindspore里的nn基础是叫cell。
当你想要建立网络的时候你就继承这个类去写你的神经网络。
根据我所画的红色线就可以知道输入参数是28×28。输出参数是十这样子的一个矩阵。
那么为什么这里的输入参数丢到这个模型里面,却前面有一个一呢?前面那个1就是一般用于批大小,1表示这一次呢,我就一个图片。
所以输出的格式最后是一个tensor的格式。
会得到的是1~10的数字的标签的概率。
所以我们需要知道这十个概率里面哪个是最大的,说就知道哪一个是最有可能是推理的答案。
pred_probab = nn.Softmax(axis=1)(logits)
把logits归一
这样得到预测为Predicted class: [6]
一层层的来计算
input_image = ops.ones((3, 28, 28), mindspore.float32)
print(input_image.shape)
3就是这次来3个图片
nn.Flatten
flatten = nn.Flatten()
flat_image = flatten(input_image)
print(flat_image.shape)
降维,弄平
(3, 784)
layer1 = nn.Dense(in_channels=28*28, out_channels=20)
hidden1 = layer1(flat_image)
print(hidden1.shape)
这个是全连接
print(f"Before ReLU: {hidden1}\n\n")
hidden1 = nn.ReLU()(hidden1)
print(f"After ReLU: {hidden1}")
激活层,让nn变得聪明
把上面的动作串起来
seq_modules = nn.SequentialCell(
flatten,
layer1,
nn.ReLU(),
nn.Dense(20, 10)
)
logits = seq_modules(input_image)
print(logits.shape)
缩放到0,1
softmax = nn.Softmax(axis=1)
pred_probab = softmax(logits)
这个网络就是这个样子