昇思25天学习打卡营第5天|munger85

mindspore的nn

nn是深度学习的基础和核心,而mindspore里的nn基础是叫cell。

在这里插入图片描述
当你想要建立网络的时候你就继承这个类去写你的神经网络。

在这里插入图片描述

根据我所画的红色线就可以知道输入参数是28×28。输出参数是十这样子的一个矩阵。

在这里插入图片描述
那么为什么这里的输入参数丢到这个模型里面,却前面有一个一呢?前面那个1就是一般用于批大小,1表示这一次呢,我就一个图片。
所以输出的格式最后是一个tensor的格式。
在这里插入图片描述
会得到的是1~10的数字的标签的概率。

所以我们需要知道这十个概率里面哪个是最大的,说就知道哪一个是最有可能是推理的答案。

在这里插入图片描述
pred_probab = nn.Softmax(axis=1)(logits)
把logits归一
在这里插入图片描述

这样得到预测为Predicted class: [6]

一层层的来计算

input_image = ops.ones((3, 28, 28), mindspore.float32)
print(input_image.shape)
3就是这次来3个图片

nn.Flatten

flatten = nn.Flatten()
flat_image = flatten(input_image)
print(flat_image.shape)
降维,弄平
(3, 784)
layer1 = nn.Dense(in_channels=28*28, out_channels=20)
hidden1 = layer1(flat_image)
print(hidden1.shape)
这个是全连接
print(f"Before ReLU: {hidden1}\n\n")
hidden1 = nn.ReLU()(hidden1)
print(f"After ReLU: {hidden1}")
激活层,让nn变得聪明
把上面的动作串起来
seq_modules = nn.SequentialCell(
flatten,
layer1,
nn.ReLU(),
nn.Dense(20, 10)
)

logits = seq_modules(input_image)
print(logits.shape)
缩放到0,1
softmax = nn.Softmax(axis=1)
pred_probab = softmax(logits)
在这里插入图片描述
这个网络就是这个样子

在这里插入图片描述

  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值