BP神经网络的推导及其参数统计

本文详细介绍了3层神经网络的结构,包括输入层、隐藏层和输出层,以及各层之间的权重和阈值。通过链式法则,推导了权重w、隐藏层阈值θ和输入层权重v的更新规则,使用梯度下降法进行参数优化。全局的均方误差公式和每个样本的误差表达式被给出,展示了如何计算和更新网络参数。
摘要由CSDN通过智能技术生成

对3层神经网络结构推导,求出它的参数,以及每层需要计算的参数和数量。

说明:本次总结的图片来自周志华老师的课件。

单个节点的神经元
这里写图片描述

图中给出了输入到某一个隐藏层单一节点的过程

一个完整的神经网络结构如下:

这里写图片描述

  • 整体结构:
    输入层节点 d 个,隐藏层节点 q 个,输出层节点 l

  • 各层的权重定义如下:
    输入层到隐藏层: V
    vih 表示 第 i 个输入层节点 ——> 第 h 个隐藏层节点
    隐藏层到输出层: W
    whj 表示第 h 个隐藏层节点 ——> 第 j 个输出层节点

  • 各层的值
    h 个隐藏层的输入定义如下:

    αh=i=1dvihxi

    j 个输出层神经元的输入定义如下:

    βj=h=iqwhjbh

对于给定的数据集 (x1,y1),(x2,y2),...,(xn,yn)

全局的均方误差为:

对于第 k 个样本在输出层的第 j 个节点上的输出结果为:

y^kj

那么,对于一个样本来说,整体的均方误差为:

Ek=12j=1l(y^kjykj)2

参数的更新

基于梯度下降法来进行更新:
激活函数为

f

这里 f 为给定的表示符号,可代指所有符合条件的激活函数。不过,本博文设置的激活函数为sigmoid,即 f(x)=11+ex

学习率为

η

对权重 w v 的更新,遵循先 w

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值