感知机是二分类的线性分类模型,属于非概率模型,判别模型。是神经网络和支持向量机的基础。
一、感知机模型
如上图,我们如果能用一条直线将两类不同的样本区分开,那么再拿到一个新的样本,我们就可以根据这条直线的位置将新样本分类。
因此我们的目标就是找到这样的一条线 ( w ⋅ x + b ) (w{\cdot}x+b) (w⋅x+b),那么用 f ( x ) = s i g n ( w ⋅ x + b ) f(x)=sign(w{\cdot}x+b) f(x)=sign(w⋅x+b)就可以实现分类的目的。
当然,这里说的是二维的情况。拓展到三维,这条线就变成了一个平面。因此我们将 ( w ⋅ x + b ) (w{\cdot}x+b) (w⋅x+b)称为超平面(hyperplane)。 w w w是超平面的法向量(垂直于平面的直线代表的向量)。 b b b是超平面的截距。
二、感知机学习策略
对于一个数据集 T T T,如果存在一个超平面能将所有样本完全正确的划分到超平面的两侧,则称 T T T为线性可分数据集(linearly separable dataset),反之则为线性不可分。
若训练集为线性可分的,最直接的目标就是找到能将所有样本完全正确分类的超平面,也就是找到感知机的模型参数 w , b w,b w,b。为此需要确定一个损失函数(Loss function),并将其最小化。
损失函数选择误分类点到超平面 S S S的总距离:
1 ∣ ∣ w ∣ ∣ ∣ w ⋅ x 0 + b ∣ \frac{1}{||w||}|w{\cdot}x_0+b| ∣∣w∣∣1∣w⋅x0+b∣
∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣是 w w w的L2范数
对于误分类的数据 ( x i , y i ) (x_i,y_i) (xi,yi)有: − y i ( w ⋅ x + b ) > 0 -y_i(w{\cdot}x+b)>0 −yi(w⋅x+b)>0,因 ( x i , y i ) (x_i,y_i) (xi,yi)到超平面 S S S的距离为
− 1 ∣ ∣ w ∣ ∣ y i ( w ⋅ x 0 + b ) -\frac{1}{||w||}y_i(w{\cdot}x_0+b) −∣∣w∣∣1yi(w⋅x0+b)
那么所有误分类样本到超平面 S S S总距离为
− 1 ∣ ∣ w ∣ ∣ ∑ x i ∈ M y i ( w ⋅ x 0 + b ) -\frac{1}{||w||}\sum_{x_i{\in}M}^{y_i(w{\cdot}x_0+b)} −∣∣w∣∣1xi∈M∑yi(w⋅x0+b)
不考虑 − 1 ∣ ∣ w ∣ ∣ -\frac{1}{||w||} −∣∣w∣∣1就得到感知机学习的损失函数 L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b ) L(w,b)=-\sum_{x_i{\in}M}^{y_i(w{\cdot}x_i+b)} L(w,b)=−∑xi∈Myi(w⋅xi+b)(经验风险函数)
其中 M M M为误分类样本的集合。
显然损失函数是非负的。分类点越少,误分类点离超平面越近,损失函数越小。分类完全正确时损失函数为0.
三、感知机学习算法
感知机学习算法是误分类驱动的,具体采用随机梯度下降法(stochastic gradient descent)。这个过程中不是一次使 M M M中所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降。
假设误分类点集合 M M M是固定的,那么损失函数 L ( w , b ) L(w,b) L(w,b)的梯度:
∇ w L ( w , b ) = − ∑ x i ∈ M y i x i \nabla_wL(w,b)=-\sum_{x_i{\in}M}^{y_ix_i} ∇wL(w,b)=−∑xi∈Myixi
∇ b L ( w , b ) = − ∑ x i ∈ M y i \nabla_bL(w,b)=-\sum_{x_i{\in}M}^{y_i} ∇bL(w,b)=−∑xi∈Myi
随机选取一个误分类点 ( x i y i ) (x_iy_i) (xiyi),对 ( w , b ) (w,b) (w,b)更新:
w ← w + η y i x i w{\gets}w+{\eta}y_ix_i w←w+ηyixi
b ← b + η y i b{\gets}b+{\eta}y_i b←b+ηyi
其中 η \eta η是学习率(0< η \eta η<1)
实操(torch)
使用mnist数据集,为了方便,首先将数据集转化为JPG格式(代码就不放了,不重要),标签在文件名上。
以下代码为感知机的代码。经过测试,我发现训练集完全不用给定的6W张照片,我只取了2000张训练,就达到了测试集100%的准确率。这也证明了mnist数据集是线性可分数据集。实验结果在最后。
import os
import torch
import time
from torch import tensor
import cv2
import numpy
def loaddata(jpgpath):
'''
读取数据
'''
print('read data...')
itemlist = os.listdir(jpgpath)
item = []
label = []
for i in itemlist:
img = torch.from_numpy(cv2.imread(f"{jpgpath}/{i}",0).reshape(28*28,-1))
item.append(img.float())
label.append(-1 if int(i.split('.')[0][-1])<5 else 1)
return item,label
def perceptron(item,label,lr=0.0001,iter=50):
'''
训练过程
'''
m = len(item)
n = 784
w = torch.zeros([1,n])
b = 0.
for k in range(iter):
for i in range(m):
x = item[i]
y = label[i]
# print(torch.mm(w,x))
a = -1*y*(torch.mm(w,x)+b)[0][0]
if a>=0:
w = w + lr*y*x
b = b + lr*y
print(f'Round {k}/{iter} trianing')
return w,b
def test(item,label,w,b):
'''
测试过程
'''
m = len(item)
label_perd = []
for i in range(m):
x = item[i]
y = label[i]
if y * (torch.mm(w,x) + b)[0][0] > 0 :
label_perd.append(1)
else:
label_perd.append(-1)
right = 0
for i in range(m):
if label_perd[i] == label[i]:
right += 1
return right/m
if __name__ == "__main__":
start = time.time()
item,label = loaddata('train_images')
w,b = perceptron(item,label)
# print(f'w:{w},b:{b}')
item,label = loaddata('test_images')
print(f"正确率:{test(item,label,w,b)}")
end = time.time()
print(f'所需时间:{end-start}')