医疗影像分割基础(一)激活函数复现

深度学习网络搭建常用激活函数的详细介绍,新学一个记录一个。

目录

激活函数 Relu

激活函数 PRelu

激活函数 ELU

激活函数 SELU

激活函数对照

参考链接


  • 激活函数 Relu

\LARGE {\color{Red} \text{Relu}(x) = \max(0,x)}

# ReLU(x) 函数实现
import math
import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10, 10, 0.1)
alpha = 1  # 控制着ELU负值部分在何时饱和
ReLU = np.maximum(0, x)
plt.title("function ReLU(x)")
plt.grid()
plt.xlabel('x')
plt.ylabel('y')
plt.xlim([-4, 4])
plt.ylim([-2, 3])
plt.xticks(np.arange(-4, 4, 1))
plt.yticks(np.arange(-2, 3, 1))
plt.plot(x, ReLU, "r-", linewidth=2)
plt.legend(['ReLU(x)'])
plt.plot(x, np.zeros(len(x)), "black", linewidth=1)
plt.plot(np.zeros(len(x)), x, "black", linewidth=1)
plt.savefig('ReLU.png', dpi=180)

  • 激活函数 PRelu

\LARGE {\color{Red} \text{PReLU}(x) = \max(0,x) + \text{weight} * \min(0,x)}

# PRelu(x) 函数实现
import math
import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10, 10, 0.1)
weight = 0.1  # 控制着weight负值部分不为 0
PRelu = np.maximum(0, x) + weight * np.minimum(x, 0)
plt.title("function PRelu(x)")
plt.grid()
plt.xlabel('x')
plt.ylabel('y')
plt.xlim([-4, 4])
plt.ylim([-2, 3])
plt.xticks(np.arange(-4, 4, 1))
plt.yticks(np.arange(-2, 3, 1))
plt.plot(x, PRelu, "r-", linewidth=2)
plt.legend(['PRelu(x)'])
plt.plot(x, np.zeros(len(x)), "black", linewidth=1)
plt.plot(np.zeros(len(x)), x, "black", linewidth=1)
plt.savefig('PRelu.png', dpi=180)

  • 激活函数 ELU

\LARGE {\color{Red} \text{ELU}(x) = \max(0,x) + \min(0, \alpha * (\exp(x) - 1))}

# ELU(x) 函数实现
import math
import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10, 10, 0.1)
alpha = 1  # 控制着ELU负值部分在何时饱和
elu = np.maximum(0, x) + np.minimum(0, alpha * (np.exp(x) - 1))
plt.title("function ELU(x)")
plt.grid()
plt.xlabel('x')
plt.ylabel('y')
plt.xlim([-4, 4])
plt.ylim([-2, 3])
plt.xticks(np.arange(-4, 4, 1))
plt.yticks(np.arange(-2, 3, 1))
plt.plot(x, elu, "r-", linewidth=2)
plt.legend(['ELU(x)'])
plt.plot(x, np.zeros(len(x)), "black", linewidth=1)
plt.plot(np.zeros(len(x)), x, "black", linewidth=1)
plt.savefig('ELU.png', dpi=180)

  • 激活函数 SELU

\LARGE {\color{Red} \text{SELU}(x) = scale * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1)))}

# SELU(x) 函数实现 - 可以不用加入BN层
import math
import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10, 10, 0.1)
alpha = 1.6732632423543772848170429916717
scale = 1.0507009873554804934193349852946
SELU = scale * (np.maximum(0, x) + np.minimum(0, alpha*(np.exp(x)-1)))
plt.title("function SELU(x)")
plt.grid()
plt.xlabel('x')
plt.ylabel('y')
plt.xlim([-4, 4])
plt.ylim([-2, 3])
plt.xticks(np.arange(-4, 4, 1))
plt.yticks(np.arange(-2, 3, 1))
plt.plot(x, SELU, "r-", linewidth=2)
plt.legend(['SELU(x)'])
plt.plot(x, np.zeros(len(x)), "black", linewidth=1)
plt.plot(np.zeros(len(x)), x, "black", linewidth=1)
plt.savefig('SELU.png', dpi=180)

 

  • 激活函数对照

  • 参考链接

13.激活函数(SELU) - 简书

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

智能之心

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值