个人一直纠结的是第二个卷积层,为什么从6@14叉14变成了16@10叉10。为什么突然就成6个图变成16个图,倍数对不上。其实是通过了1个核对多个(3 or 4)特征图进行了卷积。然后就得到16个特征提取的结果。
对经典CNN之:LeNet的详细介绍
最新推荐文章于 2023-05-13 15:06:43 发布
个人一直纠结的是第二个卷积层,为什么从6@14叉14变成了16@10叉10。为什么突然就成6个图变成16个图,倍数对不上。其实是通过了1个核对多个(3 or 4)特征图进行了卷积。然后就得到16个特征提取的结果。