神经网络:全连接神经网络

本文介绍了全连接神经网络(多层感知机)的基础知识,包括神经元模型、网络结构、正向传播过程以及反向传播算法。在神经元部分,解释了权重、偏置及激活函数的作用。网络结构部分阐述了输入层、隐藏层和输出层的权重矩阵配置。正向传播中,描述了从输入到输出的计算流程。反向传播部分,详细解释了损失函数、梯度计算和权重更新的过程,强调了隐藏层梯度依赖于下一层的特点。
摘要由CSDN通过智能技术生成

1 简介

全连接神经网络 也称作多层感知机(MLP)

1.1 神经元

神经元接收输入向量 x x x
神经元节点有权重向量w和偏置项b 输出值为 f ( w T x + b ) f(w^Tx+b) f(wTx+b)
在经过类似线性回归之后 使用激活函数对得到值进行操作

1.2 网络结构

在这里插入图片描述

  • 输入层:[特征维度,n]
  • 隐含层:权重矩阵 [输出维度,输入维度] 或者说[这层维度,上层维度]
  • 输出层:[类别数,n]

个人对于每一层的理解就是 使用[这层维度,上层维度]的权重矩阵
将输入转化为其他维度 并且使用非线性的激活函数 得到输出

1.3 正向传播

确定网络结构之后
假设有m层网络 第 l l l 层的权重矩阵 W l W^l Wl 偏置为 b l b^l bl
整个网络从输入到输出的流程为

  • x 1 = x x^1=x x1=x
  • 对于 l = 2 , 3 , . . . m l=2,3,...m l=2,3,...m每一层
    u l = W l x l − 1 + b l u^l=W^lx^{l-1}+b^l ul=Wlxl1+bl(线性回归)
    x l = f ( u l ) x^l=f(u^l) xl=f(ul)(非线性激活函数)
  • 得到 x m x^m xm 即为输出 可能是每个类别的概率组成的向量 也可能是回归值
1.4 反向传播

如何训练每一层的W和b 就需要反向传播算法
假设单个样本的损失函数是:

  • 0
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值