神经网络计算公式

神经网络计算公式

参数说明

名称含义
K_h卷积核的高
K_w卷积核的宽
C_in输入通道数
C_out输出通道数
out_width输出图像的宽度
out_height输出图像的高度
in_width输入图像的宽度
in_height输入图像的高度
Ppadding,为填充大小
Sstride,为步长

一、卷积神经网络

  1. 参数量:
    Params = K_h × K_w × C_in × C_out + C_out
    其中,K_h × K_w × C_in × C_out代表权重数,C_out 代表偏置数

  2. 卷积后输出图像大小
    out_width = (in_width - K_w + 2P)/ S + 1(向下取整)
    out_height = (in_height - K_h + 2P) / S + 1(向下取整)

  3. 池化后输出图像大小
    out_width = (in_width - K_w )/ S + 1(向下取整)
    out_height = (in_height - K_h ) / S + 1(向下取整)

二、全连接神经网络

  1. 参数量:
    Params = C_in × C_out + C_out
    其中 C_in × C_out 代表权重数,C_out代表偏置数
  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
BP神经网络计算公式包括前向传播和反向传播两个过程。 1. 前向传播: 首先,输入层接收外部输入数据,将其传递到隐藏层。隐藏层通过激活函数对输入进行加权求和,计算输出值。然后,隐藏层的输出被传递到下一层隐藏层或输出层,再次进行加权求和和激活函数操作,最终得到输出结果。 假设隐藏层有n个神经元,输出层有m个神经元,那么对于第j个隐藏层神经元,其输入为x_j,权重为w_ij,偏置为b_j。对于第k个输出层神经元,其输入为y_k,权重为v_jk,偏置为c_k。激活函数一般使用sigmoid函数或者ReLU函数。 隐藏层的输出计算公式: z_j = Σ(w_ij * x_i) + b_j a_j = f(z_j) 输出层的输出计算公式: u_k = Σ(v_jk * a_j) + c_k y_k = g(u_k) 其中,f为隐藏层的激活函数,g为输出层的激活函数。 2. 反向传播: 反向传播是用来更新神经网络中的权重和偏置,使得网络的输出结果逼近真实值。通过计算输出误差,然后反向传播更新各层的权重和偏置。 设输出层神经元的误差为E_k,隐藏层神经元的误差为E_j,则输出层神经元权重的更新公式为: Δv_jk = η * E_k * a_j 隐藏层神经元权重的更新公式为: Δw_ij = η * E_j * x_i 其中,η为学习率,控制权重更新的幅度。 然后,根据误差进行反向传播更新隐藏层的偏置和输入层的权重和偏置。 以上就是BP神经网络计算公式,通过不断迭代更新权重和偏置,最终使网络的输出结果逼近真实值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值