- 博客(5)
- 资源 (10)
- 收藏
- 关注
转载 ubuntu下分解大压缩文件或解压拆分后的文件
Original url:https://blog.csdn.net/xunan003/article/details/79068648有没有遇到某些网站上传复件时,单个文件有大小限制,导致上传失败呢?当然你可以采用更高的压缩率重新生成压缩包来解决,但如果还是超出大小限制,那该怎么办呢?有个方法可以解决此类问题,将压缩包分成多个文件,问题就迎刃而解,这就叫:分卷压缩。如何进行分卷压缩与解压呢,有如...
2018-04-10 11:12:57 2905
转载 神经网络优化算法如何选择Adam,SGD
Original url:https://blog.csdn.net/u014381600/article/details/72867109之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer = tf.train.AdamOptimiz...
2018-04-09 21:23:25 560 1
转载 总结caffe调参技巧
Original url:https://blog.csdn.net/baidu_26408419/article/details/78497201好的URL:https://machinelearningmastery.com/improve-deep-learning-performance/http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNN...
2018-04-09 00:00:00 768
转载 loss曲线震荡分析
Original url:https://blog.csdn.net/yuanlunxi/article/details/79378301Loss曲线震荡:分析原因: 1:训练的batch_size太小 1. 当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法收敛,batch_size=1时为在线学习。2. batch的选择,首先...
2018-04-08 23:44:07 7428
转载 Caffe下卷积神经网络(CNN)中的一些特殊层(Batch Normalization)
Original url:https://blog.csdn.net/xg123321123/article/details/52610919Batch Normalization意义: 网络训练时,用来加速收敛速度提醒: 已经将BN集成为一个layer了,使用时需要和scale层一起使用训练的时候,将BN层的use_global_stats设置为false; 测试的时候将use_global_s...
2018-04-06 22:22:42 1116
Xshell5.0绿色免注册版
2019-03-03
C Programming FAQs: Frequently Asked Questions
2015-10-11
SLICSuperpixelsAndSupervoxelsCode.rar
2015-08-04
GDI+(Very good lib, has been tested)
2015-08-04
perfect_personal_blog_site_source_code(person used very good)
2013-02-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人