知识点
文章平均质量分 86
qq_38010858
这个作者很懒,什么都没留下…
展开
-
神经网络面试问题
1.bn和dropout 在训练与测试阶段的区别:bn在训练时使用的是batch的数据,在测试时使用的是全量数据集计算均值和方差,bn作用在wx+b之后的步骤,dropout作用在wx+b之前dropout主要是在训练时对输入向量进行1/1-p,保持输入数据的期望不变,测试就可以避免rescal2.反向传播算法:(内容很多,建议看百面机器学习第220页)3...原创 2022-02-23 09:51:47 · 1161 阅读 · 0 评论 -
cnn发展转:https://zhuanlan.zhihu.com/p/68411179
1.LeNet5:5*5卷积核,最大池化2.AlexNet:relu激活函数,dropout和数据增强,LRN,GROUP CONV,重叠池化3.VGG:网络约深越好,3*3卷积核比5的好,LRN没用4.GoogleNet(Inception V1):a.让网络自己选择合适的网络卷积核,减少...原创 2022-02-21 11:00:47 · 1903 阅读 · 0 评论 -
深度网络简单杂记
1*1卷积核的作用:升维降维,增加通道间的信息交互,增加非线性特性,替代全连接层filter:表示卷积核,filter数量也就代表输出的深度.filter 卷积核奇数的原因是使图像两边可以对称padding。二是奇数的f有central pixel可以方便确定positionpadding :‘SAME填充数不固定’.'VALID不填充''FULLMODE:填充数为k-1':GAP:一种替代全连接层的结构,对该层的每个特征图取均值,一个特征图对应一个特征点。特征点组成的特征向量进行softmax原创 2022-02-09 14:35:47 · 1614 阅读 · 0 评论