多层感知机的代码实现+注释


前言

本文是训练多层感知机的代码实现,具体原理及推导请看BP神经网络原理(详细推导)


提示:以下是本篇文章正文内容,下面案例可供参考

第一步.读取数据

import os
import struct
import numpy as np
import matplotlib.pyplot as plt

def getMNIST(kind = 'train'):
    #获得当前路径
    path = os.getcwd()
    #获得标签文件路径
    labels_path = os.path.join(path,'%s-labels-idx1-ubyte' % kind)
    #获得图片路径
    images_path = os.path.join(path,'%s-images-idx3-ubyte' % kind)
    with open(labels_path,'rb') as lbpath:
        magic, n = struct.unpack('>II', 
                             lbpath.read(8))
        labels = np.fromfile(lbpath,dtype = np.uint8)
    with open(images_path,'rb') as imgpath:
        magic, num, rows, cols = struct.unpack('>IIII', 
                             imgpath.read(16))
        images = np.fromfile(imgpath,dtype = np.uint8).reshape(len(labels),rows*cols)
        #像素归一化
        images = ((images/255)-0.5)*2
    return images,labels

#MNIST 数据集 : 60000,60000*784,10000,10000*784 respectly.
X_train,y_train = getMNIST(kind = 'train')
X_test,y_test = getMNIST(kind = 't10k')

第二步.搭建多层感知机

class MutiLayerNeuralNetWork(object):
    
    def __init__(self,
                 l2 = 0.01,
                 eta = 0.001,
                 epochs = 10,
                 shuffle = True,
                 Random_seed = 1,
                 hidden_unit = 100,
                 minibatch_size = 
  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个使用Python实现多层感知机的示例代码: ``` import numpy as np class MLP(object): def __init__(self, input_dim, hidden_dim, output_dim): """ input_dim: 输入层维度 hidden_dim: 隐藏层维度 output_dim: 输出层维度 """ self.input_dim = input_dim self.hidden_dim = hidden_dim self.output_dim = output_dim self.W1 = np.random.randn(input_dim, hidden_dim) self.b1 = np.zeros((1, hidden_dim)) self.W2 = np.random.randn(hidden_dim, output_dim) self.b2 = np.zeros((1, output_dim)) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def sigmoid_derivative(self, x): return x * (1 - x) def forward(self, X): """ 前向传播 X: 输入数据,形状为(N, input_dim) """ self.z1 = np.dot(X, self.W1) + self.b1 self.a1 = self.sigmoid(self.z1) self.z2 = np.dot(self.a1, self.W2) + self.b2 self.y_hat = self.sigmoid(self.z2) return self.y_hat def backward(self, X, y, y_hat, learning_rate): """ 反向传播 X: 输入数据,形状为(N, input_dim) y: 标签,形状为(N, output_dim) y_hat: 预测值,形状为(N, output_dim) learning_rate: 学习率 """ delta2 = (y - y_hat) * self.sigmoid_derivative(y_hat) dW2 = np.dot(self.a1.T, delta2) db2 = np.sum(delta2, axis=0, keepdims=True) delta1 = np.dot(delta2, self.W2.T) * self.sigmoid_derivative(self.a1) dW1 = np.dot(X.T, delta1) db1 = np.sum(delta1, axis=0) self.W2 += learning_rate * dW2 self.b2 += learning_rate * db2 self.W1 += learning_rate * dW1 self.b1 += learning_rate * db1 def train(self, X, y, epochs, learning_rate): """ 训练模型 X: 输入数据,形状为(N, input_dim) y: 标签,形状为(N, output_dim) epochs: 训练轮数 learning_rate: 学习率 """ for i in range(epochs): y_hat = self.forward(X) self.backward(X, y, y_hat, learning_rate) def predict(self, X): """ 预测 X: 输入数据,形状为(N, input_dim) """ y_hat = self.forward(X) return np.round(y_hat) ``` 这里实现了一个简单的二分类多层感知机,其中使用sigmoid函数作为激活函数,使用交叉熵作为损失函数。训练过程使用批量梯度下降算法。可以根据需要修改参数和激活函数等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值