- 博客(5)
- 收藏
- 关注
原创 随笔
残差网络(ResNet)中的瓶颈层:实际中,考虑计算的成本,对残差块做了计算优化,即将两个3x3的卷积层替换为1x1 + 3x3 + 1x1, 如下图。新结构中的中间3x3的卷积层首先在一个降维1x1卷积层下减少了计算,然后在另一个1x1的卷积层下做了还原,既保持了精度又减少了计算量。’
2017-11-25 17:09:51 279
原创 深度学习第四课第二周
记住几个经典网络的结构 残差网络结构图Inceptioninception可以代替人工帮你决定卷积层大小和要不要加池化层 基本思想是不需要认为决定使用哪个过滤器,或者是否需要池化,由网络自行决定。你可以给网络添加所有可能的参数值,然后把输出参数拼接,让网络自己学习他需要什么参数。 瓶颈层(bottleneck layer)显著降低了计算量 数据扩充(数据增强)对图片进行一些变换可
2017-11-17 13:51:21 908 2
原创 tensorflow里面的padding解释
笼统的来说,padding就是在输入矩阵周围填充0,它解决了两个问题 1.卷积之后图像输出缩小 2.图像的边缘信息容易被忽略 padding在tensorflow中有两个选项。 1:”VALID”也就是没有进行0填充,这里OUTPUTSIZE计算公式为: output_size=⌈(In−F)/s+1⌉\lceil (In-F)/s+1 \rceil 2:”SAME”进行了0填充 o
2017-11-16 20:16:27 389
翻译 深度学习第四课第一周--卷积神经网络(随笔)
1.计算机视觉计算机视觉曾经面临的挑战 –>输入的图片数据量(维度)很大 (64*64*3=12288) 当输入图像为1000*1000*3,输入数据为300000时,内存会非常大,也会很容易造成过拟合。2.边缘检测垂直边缘和水平边缘检测 图示为垂直边缘检测实例 3.Paddingpadding解决了两个问题: 1.卷积之后图像输出缩小 2.图像的边缘信息容易被忽略 由上图可
2017-11-07 14:41:20 430
翻译 深度学习第三课随笔
梯度下降最简单的梯度下降格式x+=−learning_rate∗dxx+= - learning\_rate*dx动量(Momentum)更新在普通版本中,梯度直接影响位置。而在这个版本的更新中,物理观点建议梯度只是影响速度,然后速度再影响位置:动量更新v=mu∗v−learning_rate∗dxv=mu*v-learning\_rate*dxx+=vx+=vNesterov动量与普通动量有
2017-11-04 15:42:07 398 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人