1、resnet:每个层与前面某一层短路链接(一般是2-3层)连接方式是元素级相加。
densenet:密集连接机制,每个层都会与前面所有层在channel维度上连接(concat)在一起(各个特征图的大小是相同的),并作为下一层的输入。
2、为了保持特征图大小相同,使用denseblock+transition结构。
3、denseblock中,各个层卷积之后均输出k个特征图,即特征图的channel为k,或者说采用K个卷积核。k在denseblock中称为growth rate。这会造成特征重用,每个层中仅有k个特征是自己独有的。
4、使用1*1的卷积可以降低通道数,达到压缩参数数量的目的。