人工神经网络——BP算法

人工神经网络介绍

人工神经网络(Artificial Neural Network,简称ANN)是一种模拟生物神经系统功能的计算模型。它是由一系列相互连接的节点(神经元)组成的,每个节点都能接收输入、处理信息并产生输出。这些神经元之间的连接权重可以通过学习来逐步调整,从而使得神经网络能够自动从输入数据中学习和识别模式,进而完成各种任务,例如图像识别、语音识别、自然语言处理等。

如图是一个简单的神经元模型——M-P神经元模型

一个典型的人工神经网

络通常包含以下几个主要组成部分:

1. 输入层(Input Layer):接收原始的输入数据,并将其传递给下一层进行处理。

2. 隐藏层(Hidden Layers):在输入层和输出层之间有一到多个隐藏层。这些隐藏层包含大量的神经元,负责对输入数据进行特征提取和转换。

3. 输出层(Output Layer):最后一层输出神经元,将最终处理后的结果呈现给用户或作为其他系统的输入。

4. 权重(Weights):连接神经元之间的连接都有一个权重,用于调整输入信号的重要性。这些权重是模型训练的关键,通过训练过程来逐步调整以达到最优化的效果。

5. 激活函数(Activation Function):激活函数负责在神经元中引入非线性特性,使得神经网络能够学习复杂的非线性关系。常见的激活函数包括Sigmoid、ReLU、Tanh等。

 

神经网络的训练过程通常采用反向传播算法(Backpropagation),它通过比较网络输出和实际标签之间的差异来计算损失函数,并根据损失函数的梯度逐步更新连接权重,以使得网络的输出逐渐接近目标结果。

人工神经网络之所以在各种任务中表现出色,是因为它们能够自动学习数据中的特征和模式,无需手动设计特征提取器。这种自动化的特征学习使得神经网络在复杂问题上具有出色的泛化能力,即能够对未见过的数据进行准确的预测和分类。但也正因为其复杂性,神经网络的设计和训练需要大量的数据和计算资源。近年来,随着计算硬件的发展和算法的优化,神经网络在人工智能领域取得了许多重大的突破和应用。

BP算法

BP算法,全称为反向传播算法(Backpropagation),是训练人工神经网络(Artificial Neural Network,ANN)的一种有效且广泛应用的方法。它是一种监督学习算法,用于根据输入数据和对应的目标输出数据,调整神经网络的权重,使得网络能够对输入数据做出正确的预测。

BP算法的基本思想是通过计算网络输出与真实目标之间的误差,并将误差反向传播到网络中的每个神经元,以便调整各层之间的连接权重,从而降低误差,提高网络的预测能力。该算法主要分为两个阶段:前向传播和反向传播。

下面是BP算法的主要步骤:

1. 初始化:随机初始化神经网络中的连接权重。

2. 前向传播(Forward Propagation):将输入数据送入网络的输入层,通过连接权重和激活函数,逐层计算各个神经元的输出,直至得到输出层的输出。

3. 计算误差:将输出层的预测结果与真实的目标输出进行比较,计算网络在当前权重下的误差。

4. 反向传播(Backward Propagation):根据误差,从输出层开始,按照反向顺序逐层计算每个神经元的梯度。梯度表示误差随着权重的变化而变化的速率。这一步是BP算法的核心,通过链式法则计算梯度,并将误差从输出层反向传播到隐藏层和输入层。

5. 权重更新:根据梯度和学习率(一个调整步长的参数),更新连接权重,使误差减小。学习率的选择对于训练的收敛和效果都有重要影响。

6. 重复训练:重复执行前向传播、误差计算、反向传播和权重更新,直到网络的预测结果收敛或达到预定的训练迭代次数。

BP算法的优点是它能够自动学习复杂的非线性映射关系,并且在训练充分的情况下,具有很好的泛化能力。然而,它也存在一些问题,如容易陷入局部最优解、需要大量的训练数据和计算资源等。为了克服这些问题,人们发展了许多改进的BP算法和基于梯度下降的优化方法。

梯度下降

前面都是废话,此处开始才是精华

我们定义f(x)为激活函数,x为输入值,b为隐藏层的输出值,y为输出层的输出值,y_{k}表示实际输出值,v为输入层到隐藏层的权重,w为隐藏层到输出层的权重,输出层阈值定义为\theta,隐藏层定义为\gamma

(绝大多数我们用偏置而不是阈值,在此用阈值能更好理解和学习)

由数学知识可知,

输出层到隐藏层:

误差:                ​​​​​​​      e=(y-y_{k})f{}'(y)

        ​​​​​​​        ​​​​​​​        ​​​​​​​        \Delta w= \eta eb

                                \Delta \theta =\eta e

隐藏层到输入层

误差:                      e_{h}=w(y-y_{k})f{}'(y)f{}'(b)=wef{}'(b)

                                \Delta v=\eta e_{h}x

                                \Delta \gamma =\eta e_{h}

迭代更新

                                w=w+\Delta w

                                v=v+\Delta v

                                \theta =\theta -\Delta \theta

                                \gamma =\gamma -\Delta \gamma

推导过程不做展示

其实了解这些便可以了

代码展示

import numpy as np

class BackPropagation:
    # 初始化各层数量
    def __init__(self, input_n, hidden_n, output_n):
        self.input_n = input_n
        self.hidden_n = hidden_n
        self.output_n = output_n
        # 随机初始化权重和阈值
        self.i_h_weight = np.random.rand(self.input_n, self.hidden_n)
        self.h_o_weight = np.random.rand(self.hidden_n, self.output_n)
        self.h_threshold = np.random.rand(1, self.hidden_n)
        self.o_threshold = np.random.rand(1, self.output_n)

    # 激活函数sigmoid function
    def sigmoid(self, x):
        return 1 / (1 + np.exp(-x))

    # sigmiod函数求导
    def sigmoid_derivative(self, x):
        return x * (1 - x)

    # 向前传播forward propagation
    def forward_propagation(self, data_train):
        # 输入层到隐藏层
        hiddens_input = np.dot(data_train, self.i_h_weight) - self.h_threshold
        hiddens_output = self.sigmoid(hiddens_input)
        # 隐藏层到输出层
        outputs_input = np.dot(hiddens_output, self.h_o_weight) - self.o_threshold
        outputs_output = self.sigmoid(outputs_input)
        return hiddens_output, outputs_output


    # 向后传播back propagation
    def backpropagation(self, hiddens_output, outputs_output, data_train, data_labels, learning_rate):
        # 计算输出层的误差
        output_error = data_labels - outputs_output
        output_delta = output_error * self.sigmoid_derivative(outputs_output)

        # 计算隐藏层的误差
        hidden_error = output_delta.dot(self.h_o_weight.T)
        hidden_delta = hidden_error * self.sigmoid_derivative(hiddens_output)

        # 更新隐藏层到输出层的权重和阈值
        self.h_o_weight += hiddens_output.T.dot(output_delta) * learning_rate
        self.o_threshold -= np.sum(output_delta, axis=0, keepdims=True) * learning_rate

        # 更新输入层到隐藏层的权重和阈值
        self.i_h_weight += np.dot(data_train.T, hidden_delta) * learning_rate
        self.h_threshold -= np.sum(hidden_delta, axis=0, keepdims=True) * learning_rate

    def fit(self, data_train, data_labels, epochs=10, learning_rate=0.01):
        for epoch in range(epochs):
            hiddens_output, outputs_output = self.forward_propagation(data_train)
            self.backpropagation(hiddens_output, outputs_output, data_train, data_labels, learning_rate)
        _, output = self.forward_propagation(data_train)
        return output

用个及其简单的数据做展示

epochs = 5000
learning_rate = 0.1
data_train = np.array([[0, 0],
              [0, 1],
              [1, 0],
              [1, 1]])

data_labels = np.array([[0],
              [1],
              [1],
              [0]])

labels = bp.fit(data_train, data_labels, epochs=epochs, learning_rate=learning_rate)
print(labels)

结果展示

 可以调整迭代次数,使结果更准确

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值