卷积
1. 权重共享
激活层:
1. sigmoid 会导致梯度消失的问题;
2. tanh的中心点在0.5而不是0,不存在累积0.5的问题
3.relu 非线性 收敛快,
池化层
全连接层:
默认全连接层在神经网络尾部
需要搞懂的结构:
1)fpn
2)roi align
3)restina net
4)bottleneck
7)GAP
8)FCN
卷积
1. 权重共享
激活层:
1. sigmoid 会导致梯度消失的问题;
2. tanh的中心点在0.5而不是0,不存在累积0.5的问题
3.relu 非线性 收敛快,
池化层
全连接层:
默认全连接层在神经网络尾部
需要搞懂的结构:
1)fpn
2)roi align
3)restina net
4)bottleneck
7)GAP
8)FCN