深度学习-激活函数(sigmoid和ReLU)

深度学习-激活函数(sigmoid和ReLU)

在这里插入图片描述
在这里插入图片描述

'''
感知机和神经网络的区别就在于激活函数,感知机的激活函数为阶跃函数,神经网络激活函数多变。
(sigmoid,RELU等)
'''
#画出阶跃函数模型
import numpy as np
import matplotlib.pyplot as plt
def step_function(x):
    y=x>0

    return y.astype(np.int32)          #将布尔类型转为int

x=np.arange(-5,5,0.1)
y=step_function(x)
plt.plot(x,y)
plt.ylim(-0.1,1.1)               #设置y轴上下限
plt.show()


#sigmoid函数实现和画图
def sigmoid(x):
    return 1/(1+np.exp(-x))        #1/(1+exp(-x))  sigmoid函数
x=np.arange(-5,5,0.1)
y=sigmoid(x)
plt.plot(x,y)
plt.ylim(-0.1,1.1)
plt.show()

#RELU函数实现和画图,RELU函数在输入大于0时,直接输出该值,在输入小于等于0时输出0
def ReLU(x):
    return np.maximum(0,x)
x=np.arange(-5,5,0.1)
y=ReLU(x)
plt.plot(x,y)
plt.ylim(-0.1,1.1)
plt.show()

运行结果:
阶跃函数
阶跃函数
sigmoid函数
sigmoid函数
在这里插入图片描述
ReLU函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值