- 博客(9)
- 资源 (44)
- 收藏
- 关注
原创 caffe group参数
caffe Convolution层的convolution_param参数字典中有一个group参数,其意思是将对应的输入通道与输出通道数进行分组,比如输入数据大小为90x100x100x32 90是数据批大小 100x100是图像数据shape,32是通道数,要经过一个3x3x48的卷积,group默认是1,就是全连接的卷积层,如果group是2,那么对应要将输入的32个通道分成2个1
2017-04-27 15:48:42 10381 12
原创 facenet chinese whispers(face cluster)
facenet face cluster chinese whispers
2017-04-21 11:11:18 10499 5
原创 ptb_producer注释
def ptb_producer(raw_data, batch_size, num_steps, name=None): """Iterate on the raw PTB data. This chunks up raw_data into batches of examples and returns Tensors that are drawn from these batc
2017-04-14 10:39:09 2605
原创 tensorflow 恢复指定层与不同层指定不同学习率
#tensorflow 中从ckpt文件中恢复指定的层或将指定的层不进行恢复:#tensorflow 中不同的layer指定不同的学习率with tf.Graph().as_default(): #存放的是需要恢复的层参数 variables_to_restore = [] #存放的是需要训练的层参数名,这里是没恢复的需要进行重新训练,实际上恢复了的参数也可以训练
2017-04-07 17:13:37 6298
转载 1x1卷积核作用
来源http://www.caffecn.cn/?/question/136我来说说我的理解,我认为1×1的卷积大概有两个方面的作用吧:1. 实现跨通道的交互和信息整合2. 进行卷积核通道数的降维和升维 下面详细解释一下:1. 这一点孙琳钧童鞋讲的很清楚。1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从
2017-04-01 17:52:21 1546
原创 tensorflow optimizer 总结
tensorflow上的优化函数:下面图像来源:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-06-speed-up-learning/SGD 所谓的随机梯度下降,就是指,由于取的样本是一批一批的,因此,每批数据之间有可能会导致参数的梯度更新方向不一致,因此叫随机梯度下降优点在初期解
2017-04-01 17:24:57 9182
Multiple_View_Geometry_in_Computer_Vision__2nd_Edition
2016-05-31
A Practical Introduction to Computer Vision with OpenCV
2016-05-31
speex降噪文献
2016-05-31
基于OpenCV的计算机视觉技术实现
2016-05-31
Algorithms_for_Image_Processing_and_Computer_Vision
2016-05-31
OpenCV 2 Computer Vision Application Programming Cookbook
2016-05-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人