神经网络基础

本文介绍了神经网络的基础框架,重点关注神经元及其激活函数。解释了激活函数的作用,如sigmoid、tanh、ReLU及Leaky ReLU,并探讨了为何在神经网络中需要非线性激活函数的原因。
摘要由CSDN通过智能技术生成

(一)基本框架和概念

先以一个简单的双层神经网络为例:
双层神经网络

上面的神经网络有

  • 输入层:输入特征,每个特征都要与隐藏层的神经元相连,主要是将输入传达到下一层,另外这一层也被称为第零层,不计入神经网络的层数

  • 隐藏层:隐藏有多层,用来计算输入的特征,计算的方法是线性计算与激活函数

  • 输出层:将隐藏层的输出作为输入进行计算

  • 神经元:上述图里的圆圈代表神经元,神经元是完成计算的主体,一般来说神经元有两个参数 w w w b b b,在多层神经网络中,每层神经元的激活函数可以不同

(二)、神经元

神经元需要完成两个功能:

  • 处理输入,一般来说采用线性相加的方法,即对于输入的特征向量 x x x,将它转换为 z = w T x + b z=w^Tx+b z=wTx+b

  • 激活函数,对于第一步得到的 z z z做一些处理,得到输出 a = g ( z ) a=g(z) a=g(z)

这里的函数 g g g就被称为激活函数

1、激活函数
(1)、sigmod函数

在之前的Logistic回归里,学习了sigmod函数: g ( z ) = σ ( z ) = 1 1 + e − z g(z)=\sigma (z)=\frac {1}{1+e^{-z}} g(z)=σ(z)=1+ez1

因为该函数的值域为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值