全连接神经网络基础——正向传播及损失函数

本文介绍了全连接神经网络的基础知识,包括网络结构、正向传播原理,以及针对回归和分类问题的损失函数。通过实例详细阐述了均方误差(MSE)和交叉熵损失函数的应用,并提供了相关代码验证。
摘要由CSDN通过智能技术生成

全连接神经网络结构

顾名思义,全连接神经网络指的是上一层网络中的所有神经元都与下一层网络中的所有神经元相连,即上一层网络所有神经元的输出都作为下一层网络所有神经元的输入。一个简单的全连接神经网络结果如下,
在这里插入图片描述

该网络除去输入层以及输出层外有两层隐藏层,每个隐藏层有三个神经元,每层神经元都与下层神经元进行全连接。

正向传播

在网络的正向传播过程中,每个神经元首先将上层网络神经元的输出进行一个线性组合,然后通过一个非线性函数进行非线性变换作为当前神经元的输出。神经元的结构如下图所示,
在这里插入图片描述

上层神经元产生的输出 x 1 , x 2 , x 3 x_1, x_2, x_3 x1,x2,x3作为输入传入当前神经元,首先在权重 w 1 , w 2 , w 3 w_1, w_2, w_3 w1,w2,w3和一个偏置项 b b b的作用下进行线性组合,然后通过非线性函数 f f f进行非线性变换产生输出 y y y,即
y = f ( w 1 x 1 + w 2 x 2 + w 3 x 3 + b ) 。 y = f(w_1x_1 + w_2x_2 + w_3x_3+b)。 y=f(w1x1+w2x2+w3x3+b)

激活函数的作用是为了让网络能够解决非线性问题,如果没有激活函数,整个网络可以视为一个简单的线性函数,然而现实中的问题大多数是非线性的,所以通过引入激活函数来表达非线性模型。常见的激活函数有
s i g m o i d : δ ( x ) = 1 1 + e − x , {\rm sigmoid:\quad}\delta(x) = \frac{1}{1 + e^{-x}}, sigmoid:δ(x)=1+ex1, t a n h : t a n h ( x ) = e x − e − x e x + e − x , {\rm tanh:\quad}tanh(x)=\frac{e^x - e^{-x}}{e^x + e^{-x}}, tanh:tanh(x)=ex+exexex, R e L u : r e l u ( x ) = m a x ( 0 , x ) 。 {\rm ReLu:\quad}relu(x)=max(0, x)。 ReLu:relu(x)=max(0,x)

以本文开始时的网络结构为例,网络的正向传播过程如下,
第一个隐藏层: x ( 2 ) = f 1 ( W ( 1 ) x + B ( 1 ) ) , \boldsymbol{x^{(2)}} = f_1(\mathbf{W^{(1)}}\boldsymbol x+\mathbf{B^{(1)}}), x(2)=f1(W(1)x+B(1)),其中 x = [ x 11 , x 12 ] T

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值