LRN ( Local Response Normalization) 局部响应归一化层

LRN ( Local Response Normalization) 局部响应归一化层
 

·首先在弄懂原理之前,希望读者能够认真的看两遍公式,而不是直接看别人解释的原理
·是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。
·是输入值,是激活函数Relu的输出值
·k、alpha、beta、n/2 都是自定义系数,读者可以先不用理会有什么用
总结的来说,是对输入值除以一个数达到归一化的目的

LRN

N是总的通道数,不同通道累加的平方和,累加效果如下图。 
累加多少个通道的像素值呢?这个是取决于自定义系数 n/2 如果读者熟悉tensorflow的话:官方文档API如下

sqr_sum[a, b, c, d] = sum(input[a,b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias +alpha * sqr_sum) ** beta

就是参数depth_radius设置;第一次看到文档介绍感觉到云里雾里的读者也不用担心,完全可以不理解api的介绍,只要知道累加多少个通道的像素值,取决于你的参数设置,至于设置为多少,那就多查看文献吧。

è¿éåå¾çæè¿°

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值