自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (2)
  • 问答 (1)
  • 收藏
  • 关注

原创 神经网络的一些超参数重要度排序

超参数重要度:1,学习率lr2,动量参数beta(一般为0.9),batchsize大小,隐藏层神经单元个数3,学习率衰减,隐藏层的层数4,如果使用的是adam优化,则就是其参数beta1,beta2,epsilon...

2018-07-20 10:27:24 3241

原创 带有动量的梯度下降的优势

普通的梯度下降算法在寻找最优解的过程中会酱紫:可以看到是存在不断抖动的使用了带动量的梯度下降,由于梯度的计算使用了指数加权平均方法,使得本次梯度的计算和之前是有关联的,这样就能抵消比如梯度在上下摆动的这种状况,而真正的下降方向(朝右边走)却能很好保持,这样使得收敛优化变得更快...

2018-07-13 14:13:23 2805

原创 神经网络解决过拟合的几种方式

1,data augmentation2,L2 norm3,drop out4,early stopping

2018-07-11 11:47:33 4520

原创 关于深度学习中训练集,验证集,测试集那些事

1,划分比例:对于小型数据集,train,validate,test划分一般为:60%,20%,20%对于大型数据集,一般验证集和测试集没必要太多,因为只要满足其作用就行,一般不到20%甚至不到10%2,确保验证集和测试集分布相同,这样方便模型评估3,只有验证集而没有测试集容易出现过拟合现象...

2018-07-11 09:58:28 5862

原创 矩阵求导简单理解

转自知乎:https://www.zhihu.com/question/39523290

2018-07-07 15:18:25 2247 2

原创 Tanh激活函数比Sigmoid优点在哪

Sigmoid函数:Tanh函数:优势:Tanh函数是0均值的更加有利于提高训练效率,由于Sigmoid输出是在0-1之间,总是正数,在训练过程中参数的梯度值为同一符号,这样更新的时候容易出现zigzag现象,不容易到达最优值。具体推导详见知乎:https://www.zhihu.com/question/50396271?from=profile_question_card...

2018-07-07 11:50:27 13677

【真64位】msvcp120d.dll和msvcr120d.dll

网络上很多的都不是64位的,即使是标明的64位其实还是32位的msvcp和msvcr,这个资源是真正64位的dll

2017-06-03

一个vs文件

一个vs牛x工程,里边包含一些基础代码,很好看

2013-08-01

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除