统计学习方法(一) 感知机(Perceptron)

感知机是二分类的线性分类模型,属于非概率模型,判别模型。是神经网络和支持向量机的基础。

一、感知机模型

在这里插入图片描述

如上图,我们如果能用一条直线将两类不同的样本区分开,那么再拿到一个新的样本,我们就可以根据这条直线的位置将新样本分类。

因此我们的目标就是找到这样的一条线 ( w ⋅ x + b ) (w{\cdot}x+b) (wx+b),那么用 f ( x ) = s i g n ( w ⋅ x + b ) f(x)=sign(w{\cdot}x+b) f(x)=sign(wx+b)就可以实现分类的目的。

当然,这里说的是二维的情况。拓展到三维,这条线就变成了一个平面。因此我们将 ( w ⋅ x + b ) (w{\cdot}x+b) (wx+b)称为超平面(hyperplane)。 w w w是超平面的法向量(垂直于平面的直线代表的向量)。 b b b是超平面的截距。

二、感知机学习策略

对于一个数据集 T T T,如果存在一个超平面能将所有样本完全正确的划分到超平面的两侧,则称 T T T为线性可分数据集(linearly separable dataset),反之则为线性不可分。

若训练集为线性可分的,最直接的目标就是找到能将所有样本完全正确分类的超平面,也就是找到感知机的模型参数 w , b w,b w,b。为此需要确定一个损失函数(Loss function),并将其最小化。

损失函数选择误分类点到超平面 S S S的总距离:

1 ∣ ∣ w ∣ ∣ ∣ w ⋅ x 0 + b ∣ \frac{1}{||w||}|w{\cdot}x_0+b| w1wx0+b

∣ ∣ w ∣ ∣ ||w|| w w w w的L2范数

对于误分类的数据 ( x i , y i ) (x_i,y_i) (xi,yi)有: − y i ( w ⋅ x + b ) > 0 -y_i(w{\cdot}x+b)>0 yi(wx+b)>0,因 ( x i , y i ) (x_i,y_i) (xi,yi)到超平面 S S S的距离为

− 1 ∣ ∣ w ∣ ∣ y i ( w ⋅ x 0 + b ) -\frac{1}{||w||}y_i(w{\cdot}x_0+b) w1yi(wx0+b)

那么所有误分类样本到超平面 S S S总距离为

− 1 ∣ ∣ w ∣ ∣ ∑ x i ∈ M y i ( w ⋅ x 0 + b ) -\frac{1}{||w||}\sum_{x_i{\in}M}^{y_i(w{\cdot}x_0+b)} w1xiMyi(wx0+b)

不考虑 − 1 ∣ ∣ w ∣ ∣ -\frac{1}{||w||} w1就得到感知机学习的损失函数 L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b ) L(w,b)=-\sum_{x_i{\in}M}^{y_i(w{\cdot}x_i+b)} L(w,b)=xiMyi(wxi+b)(经验风险函数)

其中 M M M为误分类样本的集合。

显然损失函数是非负的。分类点越少,误分类点离超平面越近,损失函数越小。分类完全正确时损失函数为0.

三、感知机学习算法

在这里插入图片描述

感知机学习算法是误分类驱动的,具体采用随机梯度下降法(stochastic gradient descent)。这个过程中不是一次使 M M M中所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降。

假设误分类点集合 M M M是固定的,那么损失函数 L ( w , b ) L(w,b) L(w,b)的梯度:

∇ w L ( w , b ) = − ∑ x i ∈ M y i x i \nabla_wL(w,b)=-\sum_{x_i{\in}M}^{y_ix_i} wL(w,b)=xiMyixi

∇ b L ( w , b ) = − ∑ x i ∈ M y i \nabla_bL(w,b)=-\sum_{x_i{\in}M}^{y_i} bL(w,b)=xiMyi

随机选取一个误分类点 ( x i y i ) (x_iy_i) (xiyi),对 ( w , b ) (w,b) (w,b)更新:

w ← w + η y i x i w{\gets}w+{\eta}y_ix_i ww+ηyixi

b ← b + η y i b{\gets}b+{\eta}y_i bb+ηyi

其中 η \eta η是学习率(0< η \eta η<1)

在这里插入图片描述

实操(torch)

使用mnist数据集,为了方便,首先将数据集转化为JPG格式(代码就不放了,不重要),标签在文件名上。

以下代码为感知机的代码。经过测试,我发现训练集完全不用给定的6W张照片,我只取了2000张训练,就达到了测试集100%的准确率。这也证明了mnist数据集是线性可分数据集。实验结果在最后。

import os
import torch
import time
from torch import tensor
import cv2
import numpy


def loaddata(jpgpath):
    '''
    读取数据
    '''
    print('read data...')
    itemlist = os.listdir(jpgpath)
    item = []
    label = []

    for i in itemlist:
        img = torch.from_numpy(cv2.imread(f"{jpgpath}/{i}",0).reshape(28*28,-1))
        item.append(img.float())
        label.append(-1 if int(i.split('.')[0][-1])<5 else 1)

    return item,label


def perceptron(item,label,lr=0.0001,iter=50):
    '''
    训练过程
    '''
    m = len(item)
    n = 784
    w = torch.zeros([1,n])
    b = 0.

    for k in range(iter):
        for i in range(m):
            x = item[i]
            y = label[i]
            # print(torch.mm(w,x))
            a = -1*y*(torch.mm(w,x)+b)[0][0]
            if a>=0:
                w = w + lr*y*x
                b = b + lr*y
        print(f'Round {k}/{iter} trianing')

    return w,b


def test(item,label,w,b):
    '''
    测试过程
    '''
    m = len(item)
    label_perd = []
    for i in range(m):
        x = item[i]
        y = label[i]
        if y * (torch.mm(w,x) + b)[0][0] > 0 :
            label_perd.append(1)
        else:
            label_perd.append(-1)

    right = 0
    for i in range(m):
        if label_perd[i] == label[i]:
            right += 1
    
    return right/m


if __name__ == "__main__":
    start = time.time()

    item,label = loaddata('train_images')
    w,b = perceptron(item,label)
    # print(f'w:{w},b:{b}')
    item,label = loaddata('test_images')
    print(f"正确率:{test(item,label,w,b)}")
    end = time.time()

    print(f'所需时间:{end-start}')

在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值