Deep Learning
loving_coco
哈哈啊哈哈哈哈
展开
-
Transfer Learning(迁移学习)
Transfer LearningIn practice, very few people train an entire Convolutional Network from scratch (with random initialization), because it is relatively rare to have a dataset of sufficient size. Inste...原创 2018-03-28 17:27:06 · 1206 阅读 · 1 评论 -
卷积后feature map尺寸计算公式
像素宽度:W(Width) 填充大小:P(Padding) 卷积核大小:K(Kernel-size) 步长大小:S(stride) 卷积后所得feature map尺寸大小计算公式如下: 补充: 1.Padding的作用用于解决图像边缘信息损失的问题; 2.计算卷积后map尺寸时若不为整数则向下取整,而计算pooling后尺寸时则向上取整。...原创 2018-07-22 10:30:33 · 6336 阅读 · 1 评论 -
深度学习技巧(激活函数-BN-参数优化等等)
转自https://blog.csdn.net/myarrow/article/details/51848285 1. 深度学习技巧简介 1)一次性设置(One time setup) - 激活函数(Activation functions) - 数据预处理(Data Preprocessing) - 权重初始化(Weig...转载 2018-08-02 17:25:19 · 3465 阅读 · 0 评论 -
训练集(train set) 验证集(validation set) 测试集(test set)
转自http://www.cnblogs.com/xfzhang/archive/2013/05/24/3096412.html 在有监督(supervise)的机器学习中,数据集常被分成2~3个,即:训练集(train set) 验证集(validation set) 测试集(test set)。 http://blog.sina.com.cn/s/blog_4d2f6cf201000...转载 2018-08-08 21:05:28 · 1984 阅读 · 0 评论 -
为什么要将全连接层转化为卷积层
转自:https://www.cnblogs.com/liuzhan709/p/9356960.html 理解为什么要将全连接层转化为卷积层 1.全连接层可以视作一种特殊的卷积 考虑下面两种情况: 特征图和全连接层相连,AlexNet经过五次池化后得到7*7*512的特征图,下一层全连接连向4096个神经元,这个过程可以看做有4096个7*7*512的卷积核和7*7*512的特征图进行卷积...转载 2018-12-02 14:57:14 · 1125 阅读 · 0 评论