激活函数python实现

本文介绍了神经网络中的激活函数,包括阶跃函数、sigmoid函数和ReLU函数。讨论了它们的优缺点,如sigmoid的梯度消失问题和ReLU的神经元死亡问题。在输出层,介绍了恒等函数用于回归问题,而softmax函数用于分类问题,同时提到了softmax防止溢出的技巧。
摘要由CSDN通过智能技术生成

概述

  • 神经网络中激励函数的作用通俗上讲就是将多个线性输入转换为非线性的关系
  • 激活函数必须是非线性函数
  • 线性函数的问题在于,不管如何加深层数,总是存在与之等效的“无隐藏层的神经网络”,无法了发挥叠加层所带来的优势

h(x) = cx作为激活函数,把y(x) = h(h(h(x)))的运算对应3层神经网络A,但他又等价于y(x) = ax( a = c 3)

  • 输出层的激活函数需要根据情况决定,可能与前面隐层的激活函数不一样

常见激活函数

阶跃函数

普通阶跃函数

def step_function(x):    
	if x > 0:
        	return1else:
                return (0)

这个形式很简单,但有时参数是numppy.array,它接受不了数组,于是

def step_function(x):
    y = x 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值