- 博客(2)
- 收藏
- 关注
原创 8/5WXYYZZ
1.全连接层:将feature maps平坦化,转化为一维,每一个数乘以各类别的权重(通过训练得到)得到结果是某个类别的概率卷积核可以是立体的,高维的知乎科普全连接层:https://zhuanlan.zhihu.com/p/33841176怎么跟上面讲的不一样呢?上面不是平坦化成一维再乘以各自的权重吗?其实是一样的,只不过知乎上的将该过程变成了矩阵运算,不展开直接与权重矩阵卷积。比如知乎上讲的是将前面得到的特征如7*7*5与4096个7*7*5的神经元(同样大小同样深度的权重矩阵(神经元)
2021-08-07 09:28:48 85
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人