深度学习笔记(二) -------BP神经网络

神经网络结构
在这里插入图片描述

(一)信号的正向传播


隐藏层输出 = 激活函数(输入 * 权值
最终输出 = 激活函数 (隐藏层输出 * 权值

**

(二)误差的反向传播


最终输出层delta = (标签 - 最终输出)* 激活函数的导数(最终输出)
隐藏层delta = 下一层delta * (下一个权值的转置)*激活函数的倒数(隐藏层输出

(三)权值的增量

最后权值的增量 = 学习率 * 对应输入值的转置 * 对应delta

在这里插入图片描述

(四)激活函数

(1)sigmoid函数
(2)ReLu函数
(3)Tanh函数
(4)Softsign函数

等等…

(关于BP网络–手写数字识别代码)

import numpy as np
from sklearn.datasets import load_digits       #导入手写数字的图像
from sklearn.preprocessing import LabelBinarizer  #进行标签二值化
from sklearn.model_selection import train_test_split   #进行训练集和测试集的区分
from sklearn.metrics import classification_report,confusion_matrix  #对结果进行评估
import matplotlib.pyplot as plt  #画图
#载入数据
digits = load_digits()
#定义数据
X = digits.data
#定义标签
Y = digits.target
#定义神经网络模型  结构:64-100-10
#定义权值矩阵    范围0~1
V = np.random.random((64,100)) * 2 - 1
W = np.random.random((100,10)) * 2 - 1 
#学习率
lr = 0.1
#数据切分   3/4训练集   1/4测试集
X_train,X_test,Y_train,Y_test = train_test_split(X,Y)
#标签二值化
labels_train = LabelBinarizer().fit_transform(Y)
#激活函数
def sigmoid(x):
    return 1/(1+np.exp(-x))
#激活函数导数
def dsigmoid(x):
    return x * (1-x)
#训练函数
def train(steps):
    global W,V,X,Y,lr
    for n in range(steps+1):
        #随机生成一个数据
        i = np.random.randint(X.shape[0])
        #将这个数据复制
        x = X[i]
        #转化为2维数据
        x = np.atleast_2d(x)
        
        #BP算法
        #每一层的输出
        L1 = sigmoid(x.dot(V))
        L2 = sigmoid(L1.dot(W))
        #计算 
        delta_L2 = (labels_train[i]-L2)*dsigmoid(L2)
        delta_L1 = delta_L2.dot(W.T) * dsigmoid(L1)
        #权值的增量
        delta_W = lr * L1.T.dot(delta_L2)
        delta_V = lr * x.T.dot(delta_L1)
        #更新权值
        W = W + delta_W
        V = V + delta_V
        
        #每训练1000次算一遍准确率
        if n%1000 == 0:
            output = predict(X_test)
            predictions = np.argmax(output,axis=1)
            #.mean 求平均      .equal  判断是否相等 ,返回1或0
            acc = np.mean(np.equal(predictions,Y_test))  #预测值与标签测试值判断是否相等   然后求平均 
            print("steps:",n,"acc:",acc)
        
def predict(x):
    L1 = sigmoid(x.dot(V))
    L2 = sigmoid(L1.dot(W))
    return L2
train(10000)

output = predict(X_test)
predictions = np.argmax(output,axis=1)
print(classification_report(predictions,Y_test))
print(confusion_matrix(predictions,Y_test))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值