- 博客(4)
- 资源 (3)
- 收藏
- 关注
原创 神经网络各个数据集的精度
0. MNIST:BP: 98%1. Norb:BP: 88%左右2. cifar-10:BP: 50%《Understanding the difficulty of training deep feedforward neural networks》3. fashion-MNIST:其他:常用机器学习数据集精度
2018-04-25 17:25:22 2461
原创 神经网络参数初始化方式
看了文章《Understanding the difficulty of training deep feedforward neural networks》,里面提出了两种参数初始化的方法:以及normalized initialization——xavier方法:最近做实验,发现网络的初始化太重要!其实神经网络本身就是一个dark box, 但是每一个参数怎么设置怎么调节是最有技术的。几种可行...
2018-04-25 17:18:42 4560
原创 深度学习调参技巧
最近调参调的很无力,从网上找了一些调参技巧总结一下,希望最自己精度提升有帮助。参考知乎:https://www.zhihu.com/question/250979930. 先把中间多余的计算去掉,等参数调好精度上去了再计算中间的。节省时间!!!1. 更多关注loss而不是acc。2. 先用小数据集进行计算,如果精度都没有上去,应该反思模型的是否正确。大网络小数据集一般都会过拟合,训练精度肯定不错。...
2018-04-23 15:30:56 1408
原创 ResNet
《Deep Residual Learning for Image Recognition》本文主要是添加了shortcut映射来处理梯度消失的问题。这种解决深度网络的“随着层数的加深,精度下降”的方法是从优化算法的角度考虑问题的,不同于通过引入正则化来提升网络精度。心得:当一个网络效果不好的时候,有几种尝试解决方式:① 改变目标函数② 使用新的优化算法③ 引入正则项其实就是一个搭积木,然后最后看...
2018-04-18 08:36:16 369
anaconda3_cv2包
2018-05-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人