自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Shwan_ma的博客

路还很长,向大牛看齐

  • 博客(7)
  • 资源 (1)
  • 收藏
  • 关注

原创 【深度学习】Inception的前世今生(一)--GoogLeNet

论文名称《Going Deeper with Convolution》 论文链接:https://arxiv.org/abs/1409.4842在2014年ILSVRC比赛上,GoogleNet 用了仅仅是AlexNet的12%的参数量,却拿到了分类top-5的第一名。在之前的深度学习网络的设计中,会存在两个重要缺陷: 1) 更深更宽的网络模型会产生巨量参数 2) 网络规模的加大会极大的增加计

2017-12-29 16:42:17 2217 1

原创 【tensorflow】在不同层上设置不同的学习率,fine-tuning

最近一直在研究tensorflow的fine-tuning,TF关于fine-tuning这块的资料真的没有Caffe多。经过这几天的琢磨,差不多也明白了。感谢网上为数不多的开源资料。主要方法有如下两种:

2017-12-23 20:20:46 15230 10

原创 【tensorflow】打印Tensorflow graph中的所有需要训练的变量--tf.trainable_variables()

一般来说,打印tensorflow变量的函数有两个: tf.trainable_variables () 和 tf.all_variables() 不同的是: tf.trainable_variables () 指的是需要训练的变量 tf.all_variables() 指的是所有变量一般而言,我们更关注需要训练的训练变量: 值得注意的是,在输出变量名时,要对整个graph进行初始化一、打

2017-12-23 13:55:53 27525 5

原创 【tensorflow】fine-tuning, 选择性加载ckpt部分权重

在上一篇的转载博客中http://blog.csdn.net/shwan_ma/article/details/78874696中,我发现用slim可以很方便的选择性的从ckpt文件中加载所要的数据。以我自己的代码为例:exclude = ['layer_weight','WD2_conv', 'BD2']variables_to_restore=slim.get_variables_to_res

2017-12-22 16:45:34 6626 16

转载 【tensorflow】选择性读取加载权重,fine-tuning

下文转载于http://blog.csdn.net/qq_25737169/article/details/78125061在使用tensorflow加载网络权重的时候,直接使用tf.train.Saver().restore(sess, ‘ckpt’)的话是直接加载了全部权重,我们可能只需要加载网络的前几层权重,或者只要或者不要特定几层的权重,这时可以使用下面的方法:var = tf.global

2017-12-22 16:33:38 5769 20

原创 【linux】buff/cache手动释放

在云上跑了一个深度学习的东西,但是数据量实在太大,为了加速。 我就直接将数据集全部加载到内存中,毕竟对于GPU云服务器来说,内存和GPU比起来实在不算钱。。。但是运行top指令发现,linux中的buff/cache占比相当大,但没发现占用这个的程序,于是决定手动释放掉,以使得我的数据集都能完美的加载到内存中去。清空buff./cache代码:# echo 3 > /proc/sys/vm/dro

2017-12-20 10:27:07 20447 2

原创 【超分辨率】Laplacian Pyramid Networks(LapSRN)

期刊论文: https://arxiv.org/abs/1710.01992 会议论文CVPR2017: http://vllab.ucmerced.edu/wlai24/LapSRN/papers/cvpr17_LapSRN.pdf 项目主页:http://vllab.ucmerced.edu/wlai24/LapSRN/看了眼作者,Jia-Bin Huang是传统算法领域(呃,自从深度学

2017-12-02 14:34:27 12656

2018携程技术报告

2018携程技术报告,包含人工智能篇,架构篇,无限大前端篇,大数据篇,质量篇,运维篇,数据库篇,风险控制篇

2019-02-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除