a. 卷积操作的本质特性包括稀疏交互和参数共享,具体解释这两种特性及其作用。
- 稀疏交互(Sparse Interaction)
传统神经网络采用全连接方式,网络层的输入与输出之间的连接关系由一个权值矩阵表示,其中每一个参数表示前后层中某两个神经元节点之间的交互。对于全连接网络,任意一个输入节点均与输出节点产生交互,由此形成稠密的连接关系。
而稀疏交互,则是指,任意输出节点至于前一层特定的区域的节点产生交互,我们称其为稀疏交互(sparse interaction)。
2.参数共享(Parameter Sharing)
参数共享是指在同一个模型的不同模块中使用相同的参数,它是卷积运算的 固有属性。全连接网络中,计算每层的输出时,权值参数矩阵中的每个元素只作用于某个输入元素一次;而在卷积神经网络中,卷积核中的每一个元素将作用于 每一次局部输入的特定位置上。根据参数共享的思想,我们只需要学习一组参数集合,而不需要针对每个位置的每个参数都进行优化,从而大大降低了模型的存 储需求。
参考资料:
百面机器学习笔记 | 第九章:前向神经网络 | 05 深度卷积神经网络 (CNN)
b. 关于最大池化层,以下哪一项是正确的?
i. It allows a neuron in a network to have information about features in a larger part of the image, compared to a neuron at the same depth in a network without max pooling.
ii. It increases the number of parameters when compared to a similar network without max pooling.
iii. It increases the sensitivity of the network towards the position of features within an image.
答: iii
学习期间不对结果的正确性做100%保证,仅供参考