logistic二分类python实例_监督学习——logistic进行二分类(python)

线性回归及sgd/bgd的介绍:

训练数据形式:          (第一列代表x1,第二列代表 x2,第三列代表 数据标签 用 0/1表示)

训练函数形式:            y = sigmod(w0+w1*x1+w2*x2)

通过训练函数就能够得到参数列向量θ([θ0,θ1,…θn]^T),当输入样本列向量x([x0,x1,…,xn]),那么我们对样本x分类就可以通过上述公式计算出一个概率,如果这个概率大于0.5,我们就可以说样本是正样本,否则样本是负样本。

利用训练函数进行分类: 输入如果(x1,x2),利用训练函数得到 y值,如果y>0.5 返回1 ,否则返回 0。

1. Sigmoid 函数

为了将连续的数值转化为 二进制的0/1,机器学习中一般引入Sigmoid函数,该函数的形式如下:

对应的函数图像:

可以看出它的两个极值就是 0 /1 所以可以很好的将连续之映射为二分类。

Sigmoid函数有一个很棒的特点是它的导数 f′(x) = f(x)(1−f(x))

那么如何通过训练数据得到目标sigmoid函数(训练函数计算过程原理)

2. sigmoid函数+logigstic 解决二分类问题

通过上图中的数据源计算目标函数,并通过目标函数对未知数据进行二分类

数据加载:

def loadDataSet():

dataMat = []; labelMat = []

fr = open('testSet.txt')

for line in fr.readlines():

lineArr = line.strip().split()

dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])

labelMat.append(int(lineArr[2]))

return dataMat,labelMat

批梯度上升算法

def sigmoid(inX):

return 1.0/(1+exp(-inX))

def gradAscent(dataMatIn, classLabels):

# 输入训练数据

dataMatrix = mat(dataMatIn) #convert to NumPy matrix

# 输入训练数据的标签(0 / 1)

labelMat = mat(classLabels).transpose() #convert to NumPy matrix

m,n = shape(dataMatrix)

# 训练步长 (越大则收敛的速度)

alpha = 0.001

# 最大迭代次数

maxCycles = 500

# 训练函数的系数(为需要求解的结果)

weights = ones((n,1))

for k in range(maxCycles): #heavy on matrix operations

h = sigmoid(dataMatrix*weights) #matrix mult

error = (labelMat - h) #vector subtraction

# 梯度上升算法的 迭代 算法

weights = weights + alpha * dataMatrix.transpose()* error #matrix mult

return weights

随机梯度上升算法

由于批梯度算法每次迭代都需要将所有的训练数据进行计算,所以它的运行效率并不高。

而随机梯度上升算法每次迭代只是将一个训练数据进行迭代所以效率很高。

它们的数据源是一样的。

def stocGradAscent0(dataMatrix, classLabels):

m,n = shape(dataMatrix)

alpha = 0.01

weights = ones(n) #initialize to all ones

for i in range(m):

#每次迭代只需要一个训练数据

h = sigmoid(sum(dataMatrix[i]*weights))

error = classLabels[i] - h

weights = weights + alpha * error * dataMatrix[i]

return weights

参考:

《机器学习实战》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值