因为传统训练好的卷积核存在着低秩特性,因此常用的压缩方法里就会采用低秩分解(SVD)的方法进行压缩,但时这种压缩存在一些不足:
若卷积核不低秩,那压不了呗
即使是低秩的,压缩之后精度受损,需要re-training
Low Rank Filters
[SqueezeNext]
目的:去除冗余,并且减少权值参数
方法:采用两个K*1的卷积核替换掉一个K*K的卷积核(decompose the K convolutions into two separable convolutions of size 1 × K and K × 1)