手写感知机并进行训练测试

代码部分

# -*- encoding:utf-8 -*-

"""
create by 邪老黄大 on 20220814

"""

import numpy as np
import matplotlib.pyplot as plt


# 1、创建数据集
def createdata():
    samples = np.array([[3, -3], [4, -3], [1, 1], [1, 2]])
    labels = [-1, -1, 1, 1]
    return samples, labels


# 训练感知机模型
class Perceptron:
    def __init__(self, x, y, a=1):
        self.x = x
        self.y = y
        self.w = np.zeros((x.shape[1], 1))  # 初始化权重,w1,w2均为0
        self.b = 0
        self.a = 1  # 学习率
        self.numsamples = self.x.shape[0]
        self.numfeatures = self.x.shape[1]

    def sign(self, w, b, x):
        y = np.dot(x, w) + b
        return int(y)

    def update(self, label_i, data_i):
        tmp = label_i * self.a * data_i
        tmp = tmp.reshape(self.w.shape)
        # 更新w和b
        self.w = tmp + self.w
        self.b = self.b + label_i * self.a

    def train(self):
        isFind = False
        while not isFind:
            count = 0
            for i in range(self.numsamples):
                print("i = ", i)
                tmpY = self.sign(self.w, self.b, self.x[i, :])
                if tmpY * self.y[i] <= 0:  # 如果是一个误分类实例点  ==> y(训练)*y(真) = 不同类则进行更新权值
                    print("tmpY = ", tmpY)
                    print("self.y[i] =",self.y[i])
                    print('误分类点为:', self.x[i, :], '此时的w和b为:', self.w, self.b)
                    print("---------------------------------------------------------------")
                    count += 1
                    t1 = self.y[i]
                    t2 = self.x[i, :]
                    self.update(t1, t2)
            if count == 0:
                print('最终训练得到的w和b为:', self.w, self.b)
                isFind = True
        return self.w, self.b


# 画图描绘
class Picture:
    def __init__(self, data, w, b):
        self.b = b
        self.w = w
        plt.figure(1)
        plt.title('Perceptron Learning Algorithm', size=14)
        plt.xlabel('x0-axis', size=14)
        plt.ylabel('x1-axis', size=14)

        xData = np.linspace(0, 5, 100)
        yData = self.expression(xData)
        plt.plot(xData, yData, color='r', label='sample data')

        plt.scatter(data[0][0], data[0][1], s=50)
        plt.scatter(data[1][0], data[1][1], s=50)
        plt.scatter(data[2][0], data[2][1], s=50, marker='x')
        plt.scatter(data[3][0], data[3][1], s=50, marker='x')
        plt.savefig('2d.png', dpi=75)

    def expression(self, x):
        y = (-self.b - self.w[0] * x) / self.w[1]  # 注意在此,把x0,x1当做两个坐标轴,把x1当做自变量,x2为因变量
        return y

    def Show(self):
        plt.show()


if __name__ == '__main__':
    samples, labels = createdata()
    myperceptron = Perceptron(x=samples, y=labels)
    weights, bias = myperceptron.train()
    Picture = Picture(samples, weights, bias)
    Picture.Show()

效果

i =  0
tmpY =  0
self.y[i] = -1
误分类点为: [ 3 -3] 此时的w和b为: [[0.]
 [0.]] 0
---------------------------------------------------------------
i =  1
i =  2
tmpY =  -1
self.y[i] = 1
误分类点为: [1 1] 此时的w和b为: [[-3.]
 [ 3.]] -1
---------------------------------------------------------------
i =  3
i =  0
i =  1
i =  2
i =  3
最终训练得到的w和b为: [[-2.]
 [ 4.]] 0

在这里插入图片描述

  • 10
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
实现手写数字识别的多层感知机(MLP)可以分为以下几个步骤: 1. 数据预处理:将手写数字图像转换为数字矩阵,并对图像进行归一化处理,以便于神经网络的训练测试。 2. 神经网络结构设计:设计一个包含输入层、隐藏层和输出层的多层感知机,其中输入层的节点数为输入矩阵的维度(如 28 x 28),隐藏层的节点数可以根据实际情况进行调整,输出层的节点数为 10,分别对应数字 0 到 9。 3. 激活函数选择:常用的激活函数有 sigmoid、ReLU 和 tanh 等。在本例中,可以选择 ReLU 或 sigmoid 作为激活函数。 4. 损失函数选择:对于多分类问题,常用的损失函数有 softmax 和交叉熵。在本例中,可以选择交叉熵作为损失函数。 5. 参数优化:使用反向传播算法更新神经网络的权重和偏置,以最小化损失函数。 下面是一个简单的 MLP 手写数字识别模型的 Python 代码实现(仅供参考): ```python import numpy as np class MLP: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.W1 = np.random.randn(input_size, hidden_size) self.b1 = np.zeros(hidden_size) self.W2 = np.random.randn(hidden_size, output_size) self.b2 = np.zeros(output_size) def forward(self, X): Z1 = np.dot(X, self.W1) + self.b1 A1 = np.maximum(Z1, 0) Z2 = np.dot(A1, self.W2) + self.b2 exp_scores = np.exp(Z2) probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True) return probs def backward(self, X, y, probs, learning_rate): delta3 = probs delta3[range(X.shape[0]), y] -= 1 dW2 = np.dot(A1.T, delta3) db2 = np.sum(delta3, axis=0) delta2 = np.dot(delta3, self.W2.T) * (A1 > 0) dW1 = np.dot(X.T, delta2) db1 = np.sum(delta2, axis=0) self.W1 -= learning_rate * dW1 self.b1 -= learning_rate * db1 self.W2 -= learning_rate * dW2 self.b2 -= learning_rate * db2 def train(self, X, y, num_epochs, learning_rate): for i in range(num_epochs): probs = self.forward(X) self.backward(X, y, probs, learning_rate) def predict(self, X): probs = self.forward(X) return np.argmax(probs, axis=1) ``` 其中,`input_size`、`hidden_size` 和 `output_size` 分别表示输入层、隐藏层和输出层的节点数,`W1`、`b1`、`W2` 和 `b2` 分别表示第一层权重、偏置、第二层权重和偏置。在 `forward` 方法中,计算两层的输出,并使用 softmax 函数将输出转换为概率分布。在 `backward` 方法中,根据交叉熵损失函数计算误差,并使用反向传播算法更新权重和偏置。最后,在 `train` 方法中使用梯度下降算法训练神经网络。在 `predict` 方法中,使用训练好的模型进行预测,并返回预测结果。 需要注意的是,以上代码仅为简单的 MLP 手写数字识别模型示例,实际应用中需要根据实际情况进行修改和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值