- 博客(5)
- 收藏
- 关注
原创 MXNet学习之mx.sym.BlockGrad理解
MXNet学习之mx.sym.BlockGrad理解文章目录MXNet学习之mx.sym.BlockGrad理解1、解释2、示例2.1、正常反向传播2.2、阻塞传播1、解释我们知道现在深度学习的框架是计算图,由节点和路径组成。在前向和反向的时候都是通过图路径传递的,那么这个函数是用在反向传播的时候,字面意思就是阻塞梯度传播,对某个节点不进行梯度计算。2、示例输入两个点,输出一个点,如下图所示:2.1、正常反向传播上图表示的公式是:y=3a+4b,在正常的反向传播时,a的偏导就是3,b的偏导为
2021-02-12 20:41:32 462 1
原创 MXNet学习[4]MXNet Data Iterator
MXNet学习[4]MXNet Data Iterator文章目录MXNet学习[4]MXNet Data Iterator1、MXNet Data Iterator(数据迭代器)2、DataBatch2.1、介绍2.2、DataBatch类3、DataDesc3.1、介绍4、DataIter4.1、介绍4.2、DataIter类5、Data iterators:Mxnet中所有常用的迭代器6、Custom Iterator(自己定制一个迭代器)6.1、定制一个迭代器1、MXNet Data Itera
2021-02-12 20:32:09 406 2
原创 MxNe.module.fit源码解析
首先来到module模块中,然后进入base_module.py中,便可以看到fit()的原型。class BaseModule(object): ################################################################################ # High Level API #######################################################################
2021-02-12 20:07:34 283
原创 MxNet学习【2】初识(二)
MXNet学[2]Module - 神经网络训练和预测文章目录MXNet学[2]Module - 神经网络训练和预测1.数据准备2.创建一个Module3.中间层接口4.高层接口4.1、训练4.2、预测和评价4.3、保存和加载模型 训练一个神经网络需要一些步骤。比如指定训练数据的输入,模型参数初始化,执行前向和后向计算,梯度下降并更新参数,模型的保存和恢复等。在预测的时候,这些步骤也需要进行多次。对于初学者和经验丰富的开发者来说,这些都是能让人头疼的问题。幸运的是,MXNet把这些常用的操作模块化在M
2021-02-12 18:20:40 224
原创 MxNet学习【1】初识
MXNet学习[1] Symbol -神经网络图和自动区分文章目录MXNet学习[1] Symbol -神经网络图和自动区分1.符号编程2.Symbol基本组成2.1.基础运算符2.2.基础神经网络3、复杂的网络3.1.深度神经网络的模块化构造3.2.聚合多个Symbol4.Symbol操作4.1.list_arguments ()与list_outputs()4.2.infer_shape()和infer_type()推断4.3.绑定数据并执行4.4.grad_req属性4.4.1.grad_req=‘
2021-02-12 18:06:55 112
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人