多层神经网络前向及后向传播的公式总结

本文总结了多层神经网络的前向传播和反向传播过程,包括权重初始化、线性前向传播、激活函数、L层模型的实现以及成本函数的计算。详细阐述了线性层和激活层的反向传播,以及如何更新网络参数,以实现神经网络的训练。
摘要由CSDN通过智能技术生成
1、初始化参数:
# layer_dims -- python array (list) containing the dimensions of each layer in our network
# parameters -- python dictionary containing your parameters "W1", "b1", ..., "WL", "bL"
parameters = {}
L = len(layer_dims)  # number of layers in the network
	for l in range(1, L):
	        parameters['W' + str(l)] = np.random.randn(layer_dims[l], layer_dims[l-1]) * 0.01
       		parameters['b' + str(l)] = np.zeros((layer_dims[l], 1))

2、线性前向传播:
# A -- activations from previous layer (or input data): (size of previous layer, number of examples)
# W -- weights matrix: numpy array of shape (size of current layer, size of previous layer)
# b -- bias vector, numpy array of shape (size of the current layer, 1)
Z = np.dot(W.T, A) + b

3、激活函数
# A_prev -- activations from previous layer (or input data): (size of previous layer, number of examples)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值