- 博客(7)
- 资源 (1)
- 收藏
- 关注
原创 【深度学习】Inception的前世今生(一)--GoogLeNet
论文名称《Going Deeper with Convolution》 论文链接:https://arxiv.org/abs/1409.4842在2014年ILSVRC比赛上,GoogleNet 用了仅仅是AlexNet的12%的参数量,却拿到了分类top-5的第一名。在之前的深度学习网络的设计中,会存在两个重要缺陷: 1) 更深更宽的网络模型会产生巨量参数 2) 网络规模的加大会极大的增加计
2017-12-29 16:42:17 2220 1
原创 【tensorflow】在不同层上设置不同的学习率,fine-tuning
最近一直在研究tensorflow的fine-tuning,TF关于fine-tuning这块的资料真的没有Caffe多。经过这几天的琢磨,差不多也明白了。感谢网上为数不多的开源资料。主要方法有如下两种:
2017-12-23 20:20:46 15230 10
原创 【tensorflow】打印Tensorflow graph中的所有需要训练的变量--tf.trainable_variables()
一般来说,打印tensorflow变量的函数有两个: tf.trainable_variables () 和 tf.all_variables() 不同的是: tf.trainable_variables () 指的是需要训练的变量 tf.all_variables() 指的是所有变量一般而言,我们更关注需要训练的训练变量: 值得注意的是,在输出变量名时,要对整个graph进行初始化一、打
2017-12-23 13:55:53 27531 5
原创 【tensorflow】fine-tuning, 选择性加载ckpt部分权重
在上一篇的转载博客中http://blog.csdn.net/shwan_ma/article/details/78874696中,我发现用slim可以很方便的选择性的从ckpt文件中加载所要的数据。以我自己的代码为例:exclude = ['layer_weight','WD2_conv', 'BD2']variables_to_restore=slim.get_variables_to_res
2017-12-22 16:45:34 6626 16
转载 【tensorflow】选择性读取加载权重,fine-tuning
下文转载于http://blog.csdn.net/qq_25737169/article/details/78125061在使用tensorflow加载网络权重的时候,直接使用tf.train.Saver().restore(sess, ‘ckpt’)的话是直接加载了全部权重,我们可能只需要加载网络的前几层权重,或者只要或者不要特定几层的权重,这时可以使用下面的方法:var = tf.global
2017-12-22 16:33:38 5769 20
原创 【linux】buff/cache手动释放
在云上跑了一个深度学习的东西,但是数据量实在太大,为了加速。 我就直接将数据集全部加载到内存中,毕竟对于GPU云服务器来说,内存和GPU比起来实在不算钱。。。但是运行top指令发现,linux中的buff/cache占比相当大,但没发现占用这个的程序,于是决定手动释放掉,以使得我的数据集都能完美的加载到内存中去。清空buff./cache代码:# echo 3 > /proc/sys/vm/dro
2017-12-20 10:27:07 20450 2
原创 【超分辨率】Laplacian Pyramid Networks(LapSRN)
期刊论文: https://arxiv.org/abs/1710.01992 会议论文CVPR2017: http://vllab.ucmerced.edu/wlai24/LapSRN/papers/cvpr17_LapSRN.pdf 项目主页:http://vllab.ucmerced.edu/wlai24/LapSRN/看了眼作者,Jia-Bin Huang是传统算法领域(呃,自从深度学
2017-12-02 14:34:27 12657
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人