LRN是Local Response Normalization的缩写,局部相应层。
这类层应用得并不多,在vgg那个论文中比较网络深度时候有用。
局部响应归一层的基本思路是,假如这是网络的一块,比如是 9×9×256,LRN 要做的就是选取一个位置(注意是一个位置),比如说这样一个位置,从这个位置穿过整个通道,能得到 256 个数字,并进行归一化。
进行局部响应归一化的动机是,对于这张 9×9的图像中的每个位置来说,我们可能并不需要太多的高激活神经元。但是后来,很多研究者发现 LRN 起不到太大作用(比如在vgg那个论文中),并不重要。