在谈CNN之前,我们回顾一下BP神经网络,BP网络每一层节点是一个线性的一维排列状态,层与层的网络节点之间是全连接的,如果我们有100x100像素的图像,有1万个隐层神经元,每个隐层神经元都连接图像的每一个像素点,就有100x100x10000= 1 0 8 10^8 108个连接,也就是 1 0 8 10^8 108个权值参数,而如果我们隐藏层不止一层,那么权值参数数量是非常巨大的,这样不仅会使网络计算速度变慢,更有可能导致另一个问题:过拟合(overfitting)。我们设想一下,如果BP网络中层与层之间的节点连接不再是全连接,而是局部连接的。我们假设 每一个节点与上层节点同位置附近10x10的窗口相连接,则1万个隐层神经元就只有10000x100,即 1 0 6 10^6 106个参数。其权值连接个数比原来减少了两个数量级,这样,就是一种最简单的一维卷积网络。如果我们把上述这个思路扩展到二维,这就是我们所说的卷积神经网络。除了层与层之间的节点连接是局部连接,卷积神经网络另外一个特性是
一文带你理解卷积神经网络(CNN),附代码实现与CNN网络训练基本概念讲解
最新推荐文章于 2024-07-28 15:10:17 发布
本文介绍了卷积神经网络(CNN)的基本结构和组成部分,包括输入层、卷积层、池化层和全连接层。讨论了卷积层的权值共享和局部连接如何减少参数数量,防止过拟合。并通过Keras框架搭建了一个简单的CNN模型,应用于MNIST手写数字识别,展示了模型训练过程和高准确率。同时,解释了epoch、Batch_Size和优化算法等基本概念。
摘要由CSDN通过智能技术生成