BP神经网络的Python实现

本文介绍了如何利用Python编程实现BP神经网络,包括关键代码示例和最终的实现结果展示。
摘要由CSDN通过智能技术生成

BP神经网络的Python实现


利用python实现了简易的 bp神经网络模型,利用误差逆传播算法以及梯度下降法对网络进行训练,具体公式推到等可参考《机器学习》等相关书籍。
源码以及数据集可在链接 https://download.csdn.net/download/wz2671/10790394下载。


BP_TEST.py

# -*- coding: UTF-8 -*-

from BPNet.bpNet import *
import matplotlib.pyplot as plt

# 数据集
bpnet = BPNet()
bpnet.loadDataSet("testSet2.txt")
bpnet.normalize()

# 绘制数据集散点图
bpnet.drawClassScatter(plt)

# BP神经网络进行数据分类
bpnet.bpTrain()

# 计算和绘制分类线
x, z = bpnet.BPClassfier()
bpnet.classfyLine(plt, x, z)
plt.show()
# 绘制误差曲线
bpnet.TrendLine(plt)
plt.show()

bpNet.py

# -*- coding: utf-8 -*-

from numpy import *
import matplotlib.pyplot as plt
"""
BP神经网络的Python实现
公式推导等可参考:周志华《机器学习》
"""


class BPNet(object):
    def __init__(self):
        # 网络参数
        self.eb = 0.01          # 误差容限
        self.eta = 0.1          # 学习率
        self.mc = 0.3           # 动量因子
        self.maxiter = 2000     # 最大迭代次数
        self.errlist = []       # 误差列表
        self.data = None        # 数据集
        self.label = None       # 分类集
        self.nSampNum = 0       # 样本集行数
        self.nSampDim = 0       # 样本维度
        self.nHidden = 4        # 隐含层神经元
        self.nOut = 1           # 输出层
        self.iterator = 0       # 最优时迭代次数
        self.hide_wb = None       # 隐含层模型参数
        self.out_wb = None      # 输出层模型参数

    # 激活函数
    def logistic(self, net):
        return 1.0 / (1.0 + exp(-net)
好的,以下是一个简单的BP神经网络Python实现,供您参考: ```python import numpy as np class NeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.learning_rate = 0.1 # 初始化权重和偏置 self.weights1 = np.random.randn(self.input_size, self.hidden_size) self.bias1 = np.zeros((1, self.hidden_size)) self.weights2 = np.random.randn(self.hidden_size, self.output_size) self.bias2 = np.zeros((1, self.output_size)) def sigmoid(self, z): return 1 / (1 + np.exp(-z)) def sigmoid_derivative(self, z): return self.sigmoid(z) * (1 - self.sigmoid(z)) def feedforward(self, X): # 计算隐藏层输入 self.z1 = np.dot(X, self.weights1) + self.bias1 # 计算隐藏层输出 self.a1 = self.sigmoid(self.z1) # 计算输出层输入 self.z2 = np.dot(self.a1, self.weights2) + self.bias2 # 计算输出层输出 self.a2 = self.sigmoid(self.z2) return self.a2 def backward(self, X, y, output): # 计算输出层误差 self.output_error = y - output # 计算输出层梯度 self.output_gradient = self.output_error * self.sigmoid_derivative(self.z2) # 计算隐藏层误差 self.hidden_error = np.dot(self.output_gradient, self.weights2.T) # 计算隐藏层梯度 self.hidden_gradient = self.hidden_error * self.sigmoid_derivative(self.z1) # 更新权重和偏置 self.weights2 += self.learning_rate * np.dot(self.a1.T, self.output_gradient) self.bias2 += self.learning_rate * np.sum(self.output_gradient, axis=0, keepdims=True) self.weights1 += self.learning_rate * np.dot(X.T, self.hidden_gradient) self.bias1 += self.learning_rate * np.sum(self.hidden_gradient, axis=0) def train(self, X, y): output = self.feedforward(X) self.backward(X, y, output) def predict(self, X): return self.feedforward(X) ``` 使用示例: ```python X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]]) y = np.array([[0], [1], [1], [0]]) nn = NeuralNetwork(2, 3, 1) for i in range(10000): nn.train(X, y) print(nn.predict(X)) ``` 这个实现中,我们使用了 sigmoid 作为激活函数,并且采用了随机梯度下降法来更新权重和偏置。当然,这只是一个简单的实现,实际应用中可能需要更复杂的网络结构和优化算法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值