动手深度学习MXNET
文章平均质量分 75
MXNET
银域果酒
这个作者很懒,什么都没留下…
展开
-
Softmax多类逻辑回归训练 从零开始
前言 在之前的线性回归中,我们知道了如何读取和操作数据,构造目标函数、损失函数,定义模型,对损失函数求导后利用随机梯度下降来修改参数,最后使得预测的yhat和真实的y误差越来越小。 在Softmax多类逻辑回归中。我们将进行多类分类,和之前的区别在于:输出结点由一个变成了多个,每一个输出表示属于这一类的概率。 举一个关于简单的图像分类问题。输入图像的高和宽均为2个像素,且色彩为灰度,这样,每个像素值都可以用一个标量表示。我们将图像中的4个像素分别记为x1,x2,x3,x4x_1, x_2, x_原创 2021-04-16 12:49:43 · 335 阅读 · 0 评论 -
利用Gluon实现简单的线性回归训练
前言 上一篇文章只利用NDArray和autograd来实现一个线性回归的训练,现在我们可以使用MXNet提供的Gluon接口更方便地实现线性回归的训练。(和上一篇文章类似的代码就不在给出注释了) 同样地,给了你许多满足y=w*x+b这一函数关系的x,y,通过训练,求出尽可能满足条件(误差尽可能小)的w和b。下面例子的函数为 y[i] = 2 * x[i][0] - 3.4 * x[i][1] + 4.2 + noise,即给出数据集x,y,求出w,b,使得w尽量接近[2,-3.4],b尽量接近4.原创 2021-04-14 11:05:36 · 338 阅读 · 0 评论 -
线性回归训练从零开始
想要跑程序可以参考这里。关于ndarray和autograd可以参考前面几篇博客。前言 现在有一个函数,y=w*x+b,w,b已知,那么给一个x,就可以求出对应的一个y。 但当w,b未知时,我们只给出一对x,y,求出的w,b可能只可以满足这一对,但无法满足其他的x,y。这时就需要一个模型来训练出w,b来满足尽可能多的x,y,即给出一定数量的x,y,来推导出符合条件的w,b。生成数据 现在定义一个函数 y[i] = 2 * x[i][0] -3.4 * x[i][1] + 4.2 + n原创 2021-04-13 12:49:43 · 651 阅读 · 0 评论 -
MXNet中的autograd 自动求导/梯度
MXNet中的autograd 自动求导/梯度 从例子出发,对于一个函数z = 2 * x * x,求z对x的导数 为了求有关变量x的梯度(即是对x求导),我们需要先调用attach_grad()函数来申请存储梯度所需要的内存。import mxnet.ndarray as ndimport mxnet.autograd as ag #这两句也可以等价于from mxnet import autograd, ndx = nd.array([[1,2],[3,4]]) #定义一个2*2的矩阵原创 2021-04-12 21:36:11 · 275 阅读 · 0 评论 -
MXNet中的NDArray
想要跑代码可以参考这里搭建环境,同时再查一下关于jupyter notebook的基本操作即可。本文是笔记以及一些自己的补充。 在MXNet中,NDArray是一个类,也是存储和变换数据的主要工具,和NumPy的多维数组类似,提供GPU计算和自动求梯度等功能。创建NDArray 首先从MXNet导入ndarray模块,nd是ndarray的缩写形式,两种导入方式均可,但要注意之后使用的时候前缀要对应导入的形式。from mxnet import ndarray #之后要使用ndarray原创 2021-04-11 10:01:37 · 715 阅读 · 0 评论 -
动手深度学习前的准备——环境搭建详细教程
动手深度学习前的准备——环境搭建详细教程点击就送我跟着这个教程操作把软件和环境都搭配好了(Windows系统),操作还是比较简单的补充一下教程中没有的:中间遇到了这样的问题刚开始出错那么多吓我一跳,其实错误原因应该就是网速低导致断链,只要把命令多执行几次就能成功了后面打开jupyter notebook的时候记得把目录切换到相应目录即可后续的视频教程...转载 2021-03-30 12:13:31 · 177 阅读 · 0 评论