【推理加速】优化sigmoid

本文是 优化小技巧sigmoid_哔哩哔哩_bilibili的学习笔记!知识点是在深度学习部署中,对sigmoid 求反函数,用来加速推理,原因是 desigmoid_threshold 可以提前算出,只需计算一次即可。


神经网络常使用sigmoid 函数将 卷积后的结果x转换为概率output。比如,YOLO系列和CenterNet等等。

公式:

y = \frac{1}{1+e^{-x}},一个exp,一个除法,比较耗时,尤其是嵌入式上面。

优化:

y = \frac{1}{1+e^{-x}} \Rightarrow \frac{1}{y} = 1+e^{-x}\Rightarrow \frac{1}{y}-1=e^{-x}\Rightarrow ln(\frac{1}{y}-1)=-x\Rightarrow -ln(\frac{1}{y}-1)=x

 得到:  

f^{-1}(y)=-ln(\frac{1}{y}-1)

源代码:

if sigmoid(P[4]) > threshold:

    do something

新代码:

if P[4] > desigmoid_threshold:

    do something

desigmoid_threshold 可提前算出,P[4]就是网络输出的结果。

验证:

def sigmoid(x):
    return 1/(1+math.exp(-x))

def desigmoid(y):
    return -math.log(1/y-1)

y = sigmoid(1.56)
desigmoid(y) # 1.56

C++ 使用样例:

float* ptr = optr;
for(int i = 0;i < num_box; ++i, ptr += linesize){
    // cx, cy, w, h, conf, landmark0.x, landmark0.y, landmak...
    float pridict = ptr[4];
    if(pridict < depridict_threshold) continue; // 省时间,尤其是嵌入式上面
    ......
}
  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

理心炼丹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值