![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
Leanfeng_K
这个作者很懒,什么都没留下…
展开
-
【深度学习】简单易懂,对卷积核层数的理解
在学习卷积神经网时候,本人对代码中的卷积维度变化不是很理解,记录学习过程供参考。 假设有一个卷积核W(3X3X3X2),第一个维度为高度,第二个维度为宽度,第三个维度为通道数,第四个维度为卷积层数。上图展示一下: 关于卷积过程中维度的变化: 对于单通道的灰度图卷积很好理解,如4X4的图片用3X3的一个卷积核进行卷积(步长为一),那结果就是2X2的维度;假设卷积核有2层,即为3X3X2,那么卷积出来的结果就是2X2X2。结果的维度就相当于拿卷积核这个“面”在图像里平移,看有多少个这样的“面”。 对于多通道而原创 2020-05-08 22:50:39 · 2717 阅读 · 3 评论 -
【深度学习笔记】了解方差-偏差困境
在模型中: 当模型复杂度过低时,偏差则会比较大,训练出来的模型会欠拟合,因而需要提高模型复杂度来降低模型偏差; 当模型复杂度过高时,方差则会较大,训练的模型会过拟合,因而需要降低模型复杂度来降低偏差。 因此,模型复杂度的选择是一个十分纠结的问题,该问题被称为“方差-偏差困境”。(如下图所示) 形象地理解可以举个这么例子: 考试前刷题,如果刷得太多了,考试时做题会很死板,思维被局限了;但如果刷的太少...原创 2020-03-10 20:43:01 · 789 阅读 · 0 评论