深度学习
孤帆扁舟去
这个作者很懒,什么都没留下…
展开
-
神经网络激活函数softmax/sigmoid/tanh/relu总结
激活函数Rectified Linear Unit(ReLU) 用于隐层神经元输出Sigmoid用于隐层神经元输出Softmax 用于多分类神经网络输出Linear 用于回归神经网络输出(或二分类问题)具体分析请看原文章——版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/...转载 2019-08-20 15:42:57 · 901 阅读 · 0 评论 -
卷积:kernel size/padding/stride
卷积的原理卷积尺寸变化输出尺寸=(输入尺寸-filter尺寸+2*padding)/stride+1宽和高都是这么计算的;输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1...原创 2019-08-30 16:24:15 · 26602 阅读 · 5 评论 -
GoogLeNet介绍
inception 从v1-v4的变化googlenet提出的Inception结构优势:保证每一层的感受野不变,网络深度加深,使得网络的精度更高,利用该结构有效减轻网络的权重。使用1n和n1卷积核代替n*n卷积核,在保持感受野范围的情况下又降低了参数量。随机梯度下降参考文章:深度学习—GoogLeNetGoogLeNet论文学习笔记GoogLeNet 神经网络结构...原创 2019-09-25 16:12:09 · 1249 阅读 · 0 评论