Backto DL Index
列举几个常用的卷积核
1x1
conv: k(1,1)
经常出现,乍一看无用,其实非常巧妙。如果仅从二维(H, W)考虑,确实无用。但实际上,在 CNN 中,必然还有着潜藏的维度 – 深度/Channels ©。这才是 1x1 起作用的地方: feature dimension reduction/increation。按照 PyTorch 中 (N, C, H, W) 的顺序,N=1 忽略, D i n p u t = ( C , H , W ) D_{input} = (C, H, W) Dinput