《动手学深度学习》第三天

今天学习深度学习基础第三节–线性回归的简洁实现
主要是通过Gluon中的一些模块来更简洁的实现模型。
(一)Gluon提供了Data包来读取数据:
①mxnet.gluon.data.ArrayDataset(*args)
组合多个类似数据集的对象的数据集,例如数据集、列表、数组等。
②mxnet.gluon.data.DataLoader(dataset, batch_size=None, shuffle=False,…)
从数据集中加载数据并返回小批量数据。
dataset (Dataset) – Source dataset. Note that numpy and mxnet arrays can be directly used as a Dataset.
batch_size (int) – Size of mini-batch.
shuffle (bool) – Whether to shuffle the samples.是否需要洗牌
(二)导入nn模块。实际上,“nn”是neural networks(神经网络)的缩写。顾名思义,该模块定义了大量神经网络的层。
①在Gluon中,Sequential实例可以看作是一个串联各个层的容器。在构造模型时,我们在该容器中依次添加层。当给定输入数据时,容器中的每一层将依次计算并将输出作为下一层的输入。
②在Gluon中,全连接层是一个Dense实例。
(三)我们从MXNet导入init模块。该模块提供了模型参数初始化的各种方法。
mxnet.initializer.Normal(sigma=0.01)
用从正态分布中采样的随机值初始化权重,平均值为零,标准差为σ。参数:σ(浮动,可选)-正态分布的标准偏差。默认标准偏差为0.01。
(四)在Gluon中,loss模块定义了各种损失函数。
(五)定义优化算法,
collect_params()返回包含此块及其所有子参数的parameterdict(默认),也可以返回与某些给定正则表达式匹配的select parameterdict。

接着学习第四节—softmax回归

softmax回归适用于分类问题。它使用softmax运算输出类别的概率分布。
softmax回归是一个单层神经网络,输出个数等于分类问题中的类别个数。
交叉熵适合衡量两个概率分布的差异。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值