深度学习(三)-神经网络基础

本文深入探讨了神经网络的基本组成——神经元,详细解释了激活函数的作用和不同类型,包括Sigmoid、Tanh、ReLU、Leaky ReLU、ELU以及Maxout。此外,还概述了神经网络的三种主要结构:前馈网络、反馈网络和图网络。重点讨论了ReLU的优缺点及其在深度学习中的广泛应用。
摘要由CSDN通过智能技术生成

  前面我们利用pytorch实现了基于机器学习中最基本的的线性回归和逻辑回归,下面我们就正式开始接触神经网络,神经网络一般可以看作是一个非线性模型,其基本组成单位为具有非线性激活函数的神经元,通过大量神经元之间的连接,使得神经网络成为一种高度非线性的模型。神经元之间的连接权重就是需要学习的参数,可以通过梯度下降方法来进行学习。以下内容参考和摘抄自廖星宇老师的《深度学习之pytorch》和邱锡鹏老师的《神经网络与深度学习》。

1. 神经元

  神经元是构成神经网络的基本单元,也被称为感知器,本质是通过上一层的输入与权重相乘后求和,在经过非线性函数转换,得到下一层的输出。也就是说神经元由输入,权值,偏置,激活函数,输出组成。
  假设一个神经元接受 d d d 个输入 x i {x_i} xi,用向量 x = [ x i ] x = [x_i] x=[xi] 来表示这组输入,并用 z z z 表示一个神经元所获得的输入信号 x x x 的加权和
z = ∑ i = 1 d w i x i + b = w T x + b z = \sum\limits_{i = 1}^d { {w_i}{x_i} + b = {w^T}x + b} z=i=1dwixi+b=wTx+b
  其中 w = [ w 1 , w 2 , ⋅ ⋅ ⋅ , w d ] w = [w_1, w_2, · · ·, w_d] w=[w1,w2,,wd] d d d 维的权重向量, b 属于偏置。其结构如下所示:

2. 激活函数

  激活函数在神经元中非常重要的。下面我们介绍几种常用的激活函数,摘抄自《深度学习之pytorch》:

2.1 Sigmoid

  函数定义:
∂ ( x ) = 1 1 + exp ⁡ (

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值