Mxnet
可欣の扣得儿
这个作者很懒,什么都没留下…
展开
-
Mxnet(四)
总结一些CNN里的经典网络架构:一、批量归一化(batch normalization)batch_norm是一种可以使较深的神经网络能容易训练的一种方法。一般放在仿射变换和激活函数之间。????(BN(????))他的实现代码如下:import utils as d2lfrom mxnet import autograd, gluon, init, ndfrom mxnet....原创 2020-04-21 20:55:43 · 339 阅读 · 0 评论 -
Mxnet(三)
一、用Sequential来构建网络非常方便,并且不要忘记初始化from mxnet import ndfrom mxnet.gluon import nnnet = nn.Sequential()with net.name_scope(): net.add(nn.Dense(256,activation = "relu")) net.add(nn.Dense(10)...原创 2020-04-20 15:51:32 · 495 阅读 · 0 评论 -
练习:Kaggle房价预测
注册kaggle发生不出现验证码的情况,参考了:https://www.cnblogs.com/liuxiaomin/p/11785645.html这份经典的练习里有很多需要揣摩的,我看的一些问题如下:K折交叉验证:https://www.cnblogs.com/zymei/p/10832582.htmlepochs,batch_size,iteratios概念详解:https://b...原创 2020-04-14 21:10:55 · 560 阅读 · 2 评论 -
MXnet(二)
一、激活函数的比较为什么要使用激活函数?多层感知器中每一层都加入激活函数的作用:如 x*w1*w2 = x*w3 ,如果中间不加激活函数,就永远是一个单层的网络。激活函数是一个使非线性的函数。激活函数用于打破线性关系。前一篇已经提到过Softmax,它主要用于多分类场景,将一个样本的每个特征概率化。接下来介绍RELU:def relu(x): return nd.ma...原创 2020-04-14 15:58:31 · 325 阅读 · 0 评论 -
Mxnet(一)
瞻仰一下沐神的风采,顺便再撸一遍基础。相比之前撸的Tensorflow,这次有更多细节算法,比如softmax的具体实现等。一、Basic关于矩阵:from mxnet import ndarray as nd#创建一个3行4列矩阵nd.zeros((3,4))nd.ones((3,4))#创建指定内容的矩阵nd.array([[1,2],[2,3]])#创建一个随机...原创 2020-04-11 15:55:34 · 296 阅读 · 0 评论