Python3:《机器学习实战》之Logistic回归(2)最佳回归系数确定
前言:
Sigmoid函数的输入记为z,有下面公式得出:
z=w0x0+w1x1+w2x2+⋅⋅⋅+wnxn
如果采用向量的写法,上述公式可以写成
z=wTx
,它表示将这两个数值向量对应元素相乘然后全部加起来即得到z值。其中的向量x是分类器的输入数据,向量w也就是我们要找到的最佳参数系数,从而使得分类器尽可能的精确。为了寻找最佳参数,我们需要用到最优化理论的一些知识。
下面首先介绍梯度上升这一优化算法,我们将学习到如何使用该方法求得数据集的最佳参数。接下来,展示如何绘制梯度上升法产生的决策变截图,该图能将梯度上升法的分类效果可视化地呈现出来。最后,我们将学习随机梯度上升算法,以及如何对其进行修改以获得更好的效果。
梯度上升算法
梯度上升算法基于的思想是:要找到某函数的最大值,最好的办法就是沿着该函数的梯度方向探寻。如果梯度记为
∇
,则函数f(x,y)的梯度由下式表示:
∇f(x,y)=⎛⎝⎜⎜⎜∂f(x,y)∂x∂f(x,y)∂y⎞⎠⎟⎟⎟
这是机器学习中最容易造成混淆的一个地方,但在数学上并不难,需要做的只是牢记这些符号的含义。这个梯度意味着要沿x的方向移动
∂f(x,y)∂x
,沿y的方向移动
∂f(x,y)∂y
。其中,函数f(x,y)必须要在待计算的点上有定义并且可微。一个具体的函数例子见下图。
图中的梯度上升算法沿梯度方向移动了一步。乐意看到,梯度算子总是指向函数值增长最快的方向。这里说到移动方向,而未提及移动量的大小。该量值称为步长,记作α。用向量来表示的话,梯度上升算法的迭代公式如下:
w:=w+α∇wf(w)
该公式将一直被迭代执行,直到达到某个停止条件为止,比如设定的迭代次数或者达到某个允许的误差范围。
如果我没记错的话,Andrew在course的machine learning第三周的课程中使用的是梯度下降算法,它的公式为:
w:=w−α∇wf(w)
我们可以看到,两个算法其实是一样的,只是公式中的加减法不同而已。梯度上升算法用来求函数的最大值,而梯度下降算法用来求函数的最小值。
训练算法:使用梯度上升找到最佳参数
基于上面的内容,我们来看一个Logistic回归分类器的应用例子,从下图可以看到我们采集的数据集。
上图中有100个样本点,每个点包含两个数值型特征:X1和X2。在此数据集上,我们将通过使用梯度上升法找到最佳回归系数,也就是拟合出Logistic回归模型的最佳参数。
梯度上升法的伪代码如下:
每个回归系数初始化为1
重复R次:
计算整个数据集的梯度
使用alpha 下gradient 更新回归系数的向量
返回回归系数
下面的代码是梯度上升算法的具体实现。
'''
Created on Sep 15, 2017
Logistic Regression Working Module
@author: WordZzzz
'''
from numpy import *
def loadDataSet():
"""
Function: 加载数据集
Input: testSet.txt:数据集
Output: dataMat:数据矩阵100*3
labelMat:类别标签矩阵1*100
"""
dataMat = []; labelMat = []
fr = open('testSet.txt')
for line in fr.readlines():
lineArr = line.strip().split()
dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])
labelMat.append(int(lineArr[2]))
return dataMat, labelMat
def sigmoid(inX):
"""
Function: sigmoid函数
Input: inX:矩阵运算结果100*1
Output: 1.0/(1+exp(-inX)):计算结果
"""
return 1.0/(1+exp(-inX))
def gradAscent(dataMatIn, classLabels):
"""
Function: logistic回归梯度上升函数
Input: dataMatIn:数据列表100*3
classLabels:标签列表1*100
Output: weights:权重参数矩阵
"""
dataMatrix = mat(dataMatIn)
labelMat = mat(classLabels).transpose()
m,n = shape(dataMatrix)
alpha = 0.001
maxCycles = 500
weights = ones((n,1))
for k in range(maxCycles):
h = sigmoid(dataMatrix * weights)
error = (labelMat - h)
weights = weights + alpha * dataMatrix.transpose() * error
return weights
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
需要强调的是,gradAscent函数中的for循环部分中的运算是矩阵运算。变量h不是一个数而是一个列向量,列向量的元素个数等于样本个数,这里是100.对应的运算dataMatrix * weights代表不止一次乘积计算,实际上该运算包含了300次的乘积。
接下来我们看看实际效果,打开终端,输入命令行:
>>> import logRegres
>>> dataArr, labelMat = logRegres.loadDataSet()
>>> logRegres.gradAscent(dataArr, labelMat)
matrix([[ 4.12414349],
[ 0.48007329],
[-0.6168482 ]])
分析数据:画出决策边界
分析数据,当然离不开可视化模块matplotlib,代码实现如下:
def plotBestFit(weights):
"""
Function: 画出数据集和最佳拟合直线
Input: weights:权重参数矩阵
Output: 包含数据集和拟合直线的图像
"""
import matplotlib.pyplot as plt
dataMat, labelMat = loadDataSet()
dataArr =array(dataMat)
n = shape(dataArr)[0]
xcord1 = []; ycord1 = []
xcord2 = []; ycord2 = []
for i in range(n):
if int(labelMat[i]) == 1:
xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])
else:
xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2])
fig = plt.figure()
ax = fig.add_subplot(111)
ax.scatter(xcord1, ycord1, s=30, c='red', marker='s')
ax.scatter(xcord2, ycord2, s=30, c='green')
x = arange(-3.0, 3.0, 0.1)
y = (-weights[0]-weights[1]*x)/weights[2]
ax.plot(x, y)
plt.xlabel('X1'); plt.ylabel('X2')
plt.show()
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
打开终端,输入命令行进行测试:
>>> from imp import reload
>>> reload(logRegres)
<module 'logRegres' from 'logRegres.py'>
>>> weights = logRegres.gradAscent(dataArr, labelMat)
>>> logRegres.plotBestFit(weights.getA())
这个分类效果相当不错,从图上看之分错了两到四个点。但是,尽管例子简单并且数据集很小,这个方法却很需要大量的计算(300次乘积)。下面我们将对该算法进行改进,从而使它可以用到真实数据上。
训练算法:随机梯度上升
梯度上升算法在每次更新回归系数时都需要遍历整个数据集,计算复杂度太高了。一种改进方法就是一次仅用一个样本点来更新回归系数,该方法称为随机梯度上升算法。由于可以在新样本到来时对分类器进行增量式更新,因而随机梯度上升算法是一个在线学习方法。与“在线学习”相对应的,一次处理所有数据被称为是“批处理”。
随机梯度上升算法伪代码如下:
所有回归系数初始化为1
对数据集中每个样本
计算该样本的梯度
使用alpha x gradient 更新回归系数值
返回回归系数值
代码实现如下:
def stocGradAscent0(dataMatrix, classLabels):
"""
Function: 随机梯度上升算法
Input: dataMatIn:数据列表100*3
classLabels:标签列表1*100
Output: weights:权重参数矩阵
"""
m,n = shape(dataMatrix)
alpha = 0.01
weights = ones(n)
for i in range(m):
h = sigmoid(sum(dataMatrix[i]*weights))
error = classLabels[i] - h
weights = weights + alpha * error * dataMatrix[i]
return weights
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
可以看到,随机梯度上升算法与梯度上升算法在代码上很相似,但也有一些区别:第一,后者的变量h和误差error都是向量,而前者则全是数值;第二,前者没有矩阵的转换过程,所有变量的数据类型都是Numpy数组。
>>> from numpy import *
>>> reload(logRegres)
<module 'logRegres' from 'logRegres.py'>
>>> dataArr, labelMat = logRegres.loadDataSet()
>>> weights=logRegres.stocGradAscent0(array(dataArr), labelMat)
>>> logRegres.plotBestFit(weights)
执行完毕之后,效果如下图所示,该图与上一张图有一些相似之处。可以看到,拟合出来的直线比上次差了点,但是你要知道,这次的随机梯度上升算法,我们只是在整个数据集上迭代了一次而已(算成100次也是和500次差很多)。
一个判断优化算法优劣的可靠算法是看它是否收敛,也就是说参数是否达到了稳定值。随机梯度上升算法迭代200次,三个回归系数的变化如下图所示。
从上图中我们可以看到,X2迭代50次左右就稳定了,但是其他两个则需要过多次的迭代。同时我们发现在大的波动停止之后,还会有一些小的周期性波动,产生这种现象的原因是因为存在一些不能正确分类的样本点(数据集并非线性可分),在每次迭代时会引发系数的剧烈改变。我们期望算法能避免来回波动,并且收敛也要足够快。
改进的随机梯度上升算法
先上代码:
def stocGradAscent1(dataMatrix, classLabels, numIter=150):
"""
Function: 改进的随机梯度上升算法
Input: dataMatIn:数据列表100*3
classLabels:标签列表1*100
numIter:迭代次数
Output: weights:权重参数矩阵
"""
m, n = shape(dataMatrix)
weights = ones(n)
for j in range(numIter):
dataIndex = list(range(m))
for i in list(range(m)):
alpha = 4/(1.0+j+i)+0.0001
randIndex = int(random.uniform(0, len(dataIndex)))
h = sigmoid(sum(dataMatrix[randIndex]*weights))
error = classLabels[randIndex] - h
weights = weights + alpha * error * dataMatrix[randIndex]
del(dataIndex[randIndex])
return weights
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
改进:
- 一方面,alpha在每次迭代的时候都会调整,这会缓解上一张图中的数据高频波动。另外,虽然alpha会随着迭代次数不断减小,但永远不会减小到0,这是因为alpha更新公式中存在一个常数项,必须这样做的原因是为了保证在多次迭代之后新数据仍然具有一定得影响。如果要处理的问题是动态变化的,那么可以适当加大上述常数项,来确保新的值获得更大的回归系数。另一点值得注意的是,在降低alpha的函数中,alpha每次减少i/(j+i)时,alpha就不是严格下降的。便面参数的严格下降也常见于模拟退火算法等其他优化算法中。
- 另一方面,通过随机选取样本来更新回归系数,可以减少周期性的波动。
同样的,下图反映了stocGradAscent1函数中,每次迭代时各个回归系数的变化情况。
我们可以看到,除了周期性波动的减少,上图的水平轴也少了很多(只迭代了40次),这是因为该函数可以收敛的更快。
>>> reload(logRegres)
<module 'logRegres' from 'logRegres.py'>
>>> dataArr, labelMat = logRegres.loadDataSet()
>>> weights=logRegres.stocGradAscent1(array(dataArr), labelMat)
>>> logRegres.plotBestFit(weights)
分类效果如图所示:
迄今为止我们分析了回归系数的变化情况,但还没有达到本章的最终目标,即完成具体的分类任务。下一届将使用随机梯度上升算法来解决病马的生死预测问题。
系列教程持续发布中,欢迎订阅、关注、收藏、评论、点赞哦~~( ̄▽ ̄~)~
完的汪(∪。∪)。。。zzz