Python简单实现BP算法

激活函数为relu函数

import numpy as np
N = 64  # 样本数
D_in = 1000  # 输入维度
H = 100     # 隐藏层维度
D_out = 10  # 输出维度
# 随机创建一些训练数据
X = np.random.randn(N, D_in)
Y = np.random.randn(N, D_out)
# 随机初始权重
w1 = np.random.randn(D_in, H)
w2 = np.random.randn(H, D_out)
# 设置学习率
learning_rate = 1e-6
# 开始训练
for t in range(500):
    h = X.dot(w1)  # N*H
    h_relu = np.maximum(h, 0)
    y_pred = h_relu.dot(w2)
    # computer loss
    loss = np.square(y_pred-Y).sum()   # 最小均方误差
    print(t, loss)
    # Backward pass
    # computer the gradient
    grad_y_pred = 2.0 * (y_pred - Y)
    grad_w2 = h_relu.T.dot(grad_y_pred)
    grad_h_relu = grad_y_pred.dot(w2.T)
    grad_h = grad_h_relu.copy()
    grad_h[h <0] = 0
    grad_w1 = X.T.dot(grad_h)
    
    # update weights of w1 and w2
    w1 -= learning_rate * grad_w1
    w2 -= learning_rate * grad_w2
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python实现BP算法需要进行以下步骤: 1. 初始化网络参数,包括输入层、隐藏层和输出层的神经元个数,以及权重和偏差值的值。 2. 进行前向传播计算,计算每个神经元的输出。 3. 计算输出误差,即实际输出与期望输出之间的差值。 4. 进行反向传播计算,计算每个神经元的误差敏感度。 5. 更新权重和偏差值,使误差最小化。 6. 重复进行2-5步,直至达到预设的迭代次数或满足停止条件为止。 以下是一份Python实现BP算法的代码示例: ```python import numpy as np class BPNeuralNetwork: def __init__(self, input_dim, hidden_dim, output_dim): self.input_dim = input_dim self.hidden_dim = hidden_dim self.output_dim = output_dim # 初始化权重和偏置值 self.weights1 = np.random.randn(self.input_dim, self.hidden_dim) self.bias1 = np.zeros((1, self.hidden_dim)) self.weights2 = np.random.randn(self.hidden_dim, self.output_dim) self.bias2 = np.zeros((1, self.output_dim)) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def sigmoid_derivative(self, x): return x * (1 - x) def forward(self, X): self.layer1 = self.sigmoid(np.dot(X, self.weights1) + self.bias1) self.layer2 = self.sigmoid(np.dot(self.layer1, self.weights2) + self.bias2) return self.layer2 def backward(self, X, y, output): delta_output = (y - output) * self.sigmoid_derivative(output) delta_layer1 = delta_output.dot(self.weights2.T) * self.sigmoid_derivative(self.layer1) # 更新权重和偏置值 self.weights2 += self.layer1.T.dot(delta_output) self.bias2 += np.sum(delta_output, axis=0, keepdims=True) self.weights1 += X.T.dot(delta_layer1) self.bias1 += np.sum(delta_layer1, axis=0) def train(self, X, y, epochs): for i in range(epochs): output = self.forward(X) self.backward(X, y, output) def predict(self, X): return self.forward(X) # 示例用法 X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]]) y = np.array([[0], [1], [1], [0]]) nn = BPNeuralNetwork(2, 3, 1) nn.train(X, y, 10000) print(nn.predict(X)) ``` 因为BP算法实现过程比较复杂,这里只提供一个简单的示例代码,实际使用中需要根据具体情况进行修改和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值