基于吴恩达deep learning 讲解中的推导,python实现了多层神经网络的前向传播和反向传播过程。
代码如下:
Note:
- 这里最后一层没有经过sigmoid函数
- 公式推导:z为每一层神经元的输入;a为每一层神经元的输出;w为权重;b为偏差。
- 欢迎交流
# -*- coding: utf-8 -*-
"""
last layer without sigmoid
@author: cdq
"""
import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x):
return 1.0 / (1.0 + np.exp(-x))
def dsigmoid(x):
return sigmoid(x) * (1 - sigmoid(x))
class BP(object):
def __init__(self, layers, activation='sigmoid', learning_rate=0.01):
self.layers = layers
self.learning_rate = learning_rate
self.caches = {}
self.grades = {}
if activation == 'sigmoid':