1.mx.nd.NDArray()
在神经网络中,我们有三种类别的数据:
- 样本数据(输入 和 label)
- 网络模型参数
- 网络中每层的输入 数据
在 mxnet/Gluon 中,这三种类别的数据都是由 mx.nd.NDArray
来存储的。
但是需要注意的是:
模型参数记得 NDArray.attach_grad(), 因为模型参数更新的时候需要用到 梯度,attach_grad() 就是为参数梯度的存放开辟了空间,以助于参数更新的时候进行访问
不需要显式访问梯度的 NDArray 是不需要 attach_grad() 的
链接:https://blog.csdn.net/u012436149/article/details/78047278/
2.train_data=gluon.data.DataLoader() #把数据整体封装起来
class mxnet.gluon.data.
DataLoader
(dataset,batch_size = None,shuffle = False,sampler = None,last_batch = None,batch_sampler = None,batchify_fn = None,num_workers = 0 )参数理解
- dataset(数据集) - 源数据集。请注意,numpy和mxnet数组可以直接用作数据集。
- batch_size(int) - 最小批量的大小。
- shuffle(bool) - 是否洗牌。
- sample(采样器) - 要使用的采样器。指定采样器或混洗,而不是两者。
- last_batch({'keep' ,'discard' ,'rollover'}) -
如果batch_size不能均匀分配len(数据集),如何处理最后一批 。
keep - 返回比前一批次样品少的批次。discard - 如果最后一批不完整,则丢弃最后一批。rollover - 剩余的样本将转入下一个时间段。
- batch_sampler(采样器) - 返回小批量的采样器。如果指定了batch_sampler,则不要指定batch_size,shuffle,sampler和last_batch。
- batchify_fn(可调用) -
回调函数允许用户指定如何将样本合并到批处理中。默认为default_batchify_f
num_workers(int ,默认值为0) - 用于数据预处理的多处理工作器的数量。 Windows尚未支持num_workers> 0。
(3)class
mxnet.gluon.data.vision.datasets.
MNIST
(root ='〜/ .mxnet / datasets / mnist',train = True,transform = None )
链接:https://blog.csdn.net/bycare/article/details/80048213
3.numpy中把向量/vector转化为标量/scalar
import numpy as np
vec = np.array([1]) #=> [1] 向量
scal = np.asscalar(vec)#=> 1 标量
4.attach.grad()
- 模型参数记得 NDArray.attach_grad(), 因为模型参数更新的时候需要用到 梯度,attach_grad() 就是为参数梯度的存放开辟了空间,以助于参数更新的时候进行访问
- autograd.record(): # 使用 autograd 来记录计算图
- 参考链接:https://blog.csdn.net/u012436149/article/details/78047278/