所谓卷积里面的权值共享:就是将卷积核里面的所有数值都当做权值,在进行卷积运算的时候,卷积核扫描整个图就实现了权值共享
卷积操作为什么比全连接的计算简单?
全连接层的参数太多,对于MNIST数据,每一张图片的大小是28281,其中2828代表的是图片的大小,1表示图像是黑白的,有一个色彩通道。假设第一层隐藏层的节点数为500个,那么一个全连接层的神经网络有2828500+500=392500个参数,而且有的图片会更大或者是彩色的图片,这时候参数将会更多。参数增多除了导致计算速度减慢,还很容易导致过拟合的问题。所以需要一个合理的神经网络结构来有效的减少神经网络中参数的个数。卷积神经网络就可以更好 的达到这个目的。
个人理解:计算某一个节点的参数量相差很大,卷积层只需要卷积核扫过的地方。而全连接层是需要所有的节点