深度神经网络(DNN)学习笔记

本文概述了深度神经网络中的全连接层工作原理,强调了激活函数如Sigmoid、Tanh和ReLU的重要性,它们引入非线性以处理复杂任务,尤其是ReLU函数的分段线性映射特性。
摘要由CSDN通过智能技术生成

最近学习了深度神经网络(DNN)和卷积神经网络(CNN)的基础知识,现将本人的理解记录如下:

1.全连接层

      全连接层,顾名思义,就是对相邻两层之间的每个神经元都建立连接关系。这里以一个输入层,一个隐藏层,一个输出层为例说明,如下图所示,输入层包括四个神经元,隐藏层包括四个神经元,输出层包括两个神经元。                     

图1

    从数学原理上理解以上全连接层,就是通过两个权重矩阵,实现每两层之间输入特征到输出特征之间的映射。对于以上全连接层,对输入特征用x表示,隐藏层用y表示,输出特征用z表示,通过如下矩阵运算过程可以实现从x到z的映射。

2.激活函数

     激活函数的作用主要是使得神经网络能够实现非线性映射,从而能够处理更加复杂的任务,对于一个全连接神经网络,其本质是一个输入到输出的函数映射:

   f(x)=wx

    从这个公式中,可以看出输入到输出的映射只是一个线性映射,对于非线性的任务就无能为力。以分类任务为例,如下图2所示,这样的神经网络只能画出一条直线将两种类别的点分开。 而对于更加复杂的情况,如下图3所示,需要能够画出曲线才能将两种类别的点分开,那么这样的神经网络就无法处理这类任务。

图2
图3

     为了使得神经网络能够对输入和输出建立非线性映射,研究人员引入了激活函数的概念,对每一层的输出进行非线性变换,常用的激活函数包括Sigmoid函数,Tanh函数和ReLU函数,在pytorch库中,都有其对应实现函数,现将其数学表达形式列出:

    (1) Sigmoid函数:

f(x)=\frac{1}{1+e^{-x}}

    (2) Tanh函数:

f(x)=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}}

    (3) ReLU函数:

f(x)=max(x,0) 

     ReLU激活函数应该是最常用的激活函数,个人理解,ReLU激活函数实现的是将原来的线性映射变为了分段线性映射,从而实现对非线性映射的拟合。 

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值