深度学习之神经网络(1)

神经网络(Neural Network)

一种受人脑结构启发的计算模型,由相互连接的节点(神经元)组成,能够处理和解释数据。

这里的神经网络,具体而言应该指的是人工神经网络(Artificial Neural Networks,简称ANNs),而非生物学上的神经网络。其实人工神经网络是本身就是受生物神经网络启发的数学模型,用于模拟大脑处理信息的方式。但是现代神经网络模型在结构和功能上已经高度抽象化,虽然仍然比生物神经系统的复杂性,但是人工神经网络模型随着时间发展,不可解释性在进一步增强。

神经元 (Neuron)

神经网络中的基本单元,负责处理信息

在上一篇博客中,我介绍在早期人工神经网络模型中的基本组成单位——感知机,而在现代神经网络模型中的基本单元变成了神经元。

典型的人工神经元包括以下几个组成部分:

  1. 输入(Input): 输入是神经元接收到的信息。每个输入都与一个权重相关联,用于调节输入的相对重要性。

  2. 权重(Weights): 权重是与每个输入相关联的参数,用于调节输入的影响力。权重越大,对应输入的影响力就越大,反之亦然。

  3. 偏置(Bias): 偏置允许神经元在没有输入时也能产生输出,并且可以调整神经元对不同输入的敏感度。

  4. 激活函数(Activation Function): 激活函数是作用于经过权重加权以及偏置调整阈值后的输入的非线性函数,它将神经元的输出映射到一个特定的范围内。常见的激活函数包括Sigmoid、ReLU、Tanh等。

  5. 输出(Output): 输出是经过激活函数处理后的神经元的最终输出。位于隐藏层,可以作为下一层神经元的输入,位于输出层可以作为整个网络的输出。

人工神经元通常组成神经网络的不同层,其中输入层接收原始输入数据,输出层产生最终的输出结果,而中间的隐藏层用于对数据进行特征提取和表示学习。

激活函数的意义

在刚开始学习的时候,可能会有疑问说,为什么要引入激活函数,它的意义在哪里呢?
以下我将介绍引入激活函数的主要原因:
学习非线性

  • 现实特征的关系是复杂的,仅仅依靠线性函数(如 (y = ax + b))很难将特征关系表达出来,因为多个线性函数组合仍然只能表示线性关系,即随着网络层数增加,得到的特征之间的关系仍然是线性。并没很好的体现神经网络的优势和特点。引入非线性的激活函数,可以随着网络传播进行学习,模拟出复杂的非线性关系,来表征特征之间的关系。非线性的函数表达无疑是更符合表达复杂关系的需求。

控制神经元的激活

  • 激活函数决定了神经元在什么条件下应该被激活。在常用的激活函数中,部分函数有明显的阈值,如ReLU。阈值是激活函数从完全不激活(输出接近激活函数的下界)到开始激活(输出接近激活函数的上界)的临界点。只有当输入信号的加权和超过这个阈值时,神经元才会激活并传递信号。而不同的激活函数具有不同的函数映射特性,也就是输出的范围。例如,Sigmoid函数将输入压缩到0和1之间,适合用作二分类问题的输出层;而Tanh函数将输入压缩到-1和1之间,常用于隐藏层。

激活函数 (Activation Function)

用于在神经网络中引入非线性,使得网络能够学习和执行更复杂的任务

  1. Sigmoid函数:

数学表达式: σ ( x ) = 1 1 + e − x ​ \sigma(x)=\frac{1}{1+e^{-x}}​ σ(x)=1+ex1
导数表达式: σ ′ ( x ) = σ ( x ) ( 1 − σ ( x ) ) ​ \sigma^{\prime}(x)=\sigma(x)(1-\sigma(x))​ σ(x)=σ(x)(1σ(x))
优点:输出范围在0到1之间,适用于二分类问题或将输出映射到概率值的情况。
缺点:在输入非常大或非常小的时候,梯度接近于零,容易导致梯度消失问题(Gradient Vanishing),训练速度较慢。

  1. ReLU函数(Rectified Linear Unit):

    • 数学表达式: f ( x ) = max ⁡ ( 0 , x ) ​ f(x)=\max (0, x) ​ f(x)=max(0,x)
    • 导数表达式 f ′ ( x ) = { 1  if  x > 0 0  otherwise  ​ f^{\prime}(x)=\left\{\begin{array}{ll}1 & \text { if } x>0 \\ 0 & \text { otherwise }\end{array}\right.​ f(x)={10 if x>0 otherwise 
    • 优点:计算简单,不存在梯度消失问题,能够加速模型训练。
    • 缺点:在输入为负数时,导数为零,会导致神经元死亡(Dead ReLU)问题,使得部分神经元无法激活。
  2. Leaky ReLU函数:

    • 数学表达式: f ( x ) = { x  if  x > 0 α x  otherwise  ​ f(x)=\left\{\begin{array}{ll}x & \text { if } x>0 \\ \alpha x & \text { otherwise }\end{array}\right. ​ f(x)={xαx if x>0 otherwise 
    • 导数表达式: f ′ ( x ) = { 1  if  x > 0 α  otherwise  f^{\prime}(x)=\left\{\begin{array}{ll}1 & \text { if } x>0 \\ \alpha & \text { otherwise }\end{array}\right. f(x)={1α if x>0 otherwise 
    • 优点:解决了ReLU函数中的神经元死亡问题,能够在负数输入时保持一定的梯度。
    • 缺点:引入了额外的超参数 𝛼,需要手动调节。
  3. Tanh函数:

    • 数学表达式: tanh ⁡ ( x ) = e x − e − x e x + e − x ​ \tanh (x)=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}}​ tanh(x)=ex+exexex
    • 导数表达式: tanh ⁡ ′ ( x ) = 1 − tanh ⁡ 2 ( x ) \tanh ^{\prime}(x)=1-\tanh ^{2}(x) tanh(x)=1tanh2(x)
    • 优点:输出范围在-1到1之间,收敛速度比Sigmoid函数快。
    • 缺点:同样存在梯度消失问题,计算复杂度较高。
  4. Softmax函数:

    • 数学表达式: softmax ⁡ ( x i ) = e x i ∑ j = 1 n e x j \operatorname{softmax}\left(x_{i}\right)=\frac{e^{x_{i}}}{\sum_{j=1}^{n} e^{x_j}} softmax(xi)=j=1nexjexi
    • 导数表达式: ∂ softmax ⁡ ( x i ) ∂ m = softmax ⁡ ( x i ) ( 1 − softmax ⁡ ( x i ) ) \frac{\partial \operatorname{softmax}\left(x_{i}\right)}{\partial_{m}}=\operatorname{softmax}\left(x_{i}\right)\left(1-\operatorname{softmax}\left(x_{i}\right)\right) msoftmax(xi)=softmax(xi)(1softmax(xi))
    • 优点:将输出映射为概率分布,适用于多分类问题。
    • 缺点:存在类似Sigmoid函数的梯度消失问题。
  • 20
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值