- 博客(4)
- 收藏
- 关注
原创 深度学习-GoogleNet
GoogleNet关键在于Inception模块,共22层(不知道怎么数的,反正大家都这么说) Inception V2引入Batch_Norm 增加计算鲁棒性,加快了学习速度,将5*5的核用更小的3*3核代替; InceptionV3进一步将3*3核用1*n的核代替,进一步化简; InceptionV4是结合了ResNet; 算见:http://blog.sina.com.cn...
2020-02-27 18:34:31 133
原创 深度学习总结3——VGG
鼠年一到,大家都在家猫着吧。几个吃野味的害的全国人民一起关禁闭。md,实在是应该qb。 卷积模型从LeNet->AlexNet-VGG->NiN->GoogleNet->ResNet->InceptionV3、V4,最终比较实用的可能还是后面的这些。AlxeNet、VGG更多作为研究的启动,被比较的对象。比较实用的还是后面这些网络结构。 VGG:结构有VGG-11...
2020-02-27 15:35:07 428
原创 深度学习总结2
超参数调节: 1 一次只调节一个参数,学习完后看损失函数数据趋势,如果在下降,则顺着趋势调节; 2 对应误差有两种:欠拟合和过拟合。 欠拟合:当训练误差很大时会出现,说明建立的模型太简单了,或者选的模型不对,可以考虑增加模型复杂度,例如增加隐藏层数量或者神经元数量; 过拟合:当训练误差很小,但是泛化误差比较大(也就是测试误差大)时;有可能模型复杂度太高;当训练数据集太小时也会发生。一个指标是训练...
2020-02-15 11:45:11 67
原创 深度学习总结1
1)开发环境:Anaconda spyder 坑:使用时spyder路径要设置为工作文件夹路径,否则一下库找不到。 python语句空格可视化设置:Tools->perferences->Editor下打开show blank space 2)环境安装pip install mxnet 如果使用jupyter notebook,需要先在命令行切换到工作文件夹后打开jupy...
2020-02-15 10:30:26 196
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人