李航《统计学习方法》第六章——用Python实现逻辑斯谛回归(MNIST数据集)

相关文章:



第六章有两个算法,分别是逻辑斯谛回归与最大熵模型
逻辑斯谛回归可以看成最大熵模型的一种特例,最大熵模型的代码已经写好了,小数据集下测试正常,但放到MNIST数据集下会产生指数爆炸的问题,我这几天再看看如何解决吧!

逻辑斯谛回归

首先贴一下书上的算法

算法

这里写图片描述
可以看到这个算法与感知器算法贼像
感知器算法

当 Y = 1 时, wTx 尽量等于 +1
当 Y = 0 时, wTx 尽量等于 -1


而罗吉斯蒂算法

当 Y = 1 时, wTx 尽量等于 +
当 Y = 0 时, wTx 尽量等于


根据我仅存一丢丢的集合论知识,好像(0,1)与( , + )是一一映射,所以两个算法在我看来没有什么本质区别的,可能区别在于浮点数精度上。

P.S. 如果理解有错,希望能在评论区告诉我!

参数估计

书上没有写出完整的参数估计算法,但给出了其对数似然函数,经过简单的证明可以得出该函数是单调上升,且其极限为0
因此,我们可以将-L(w)作为损失函数,用随机梯度下降的方法求解

L(w)wj=i=1Nyixijxijexp(wxi)1+exp(wxi)


每次随机选取一个误分类点,用上述梯度对w进行更新即可,注意由于梯度中包含指数操作,所以需要一个很小的学习率。

数据集

数据集和感知器那个博文用的是同样的数据集。
数据地址:https://github.com/WenDesi/lihang_book_algorithm/blob/master/data/train_binary.csv

特征

将整个图作为特征

代码

代码已放到Github上,这边也贴出来,因为算法还挺简单的,所以没有加什么注释,

# encoding=utf-8
# @Author: WenDesi
# @Date:   08-11-16
# @Email:  wendesi@foxmail.com
# @Last modified by:   WenDesi
# @Last modified time: 08-11-16

import time
import math
import random

import pandas as pd
from sklearn.cross_validation import train_test_split
from sklearn.metrics import accuracy_score


class LogisticRegression(object):

    def __init__(self):
        self.learning_step = 0.00001
        self.max_iteration = 5000

    def predict_(self,x):
        wx = sum([self.w[j] * x[j] for j in xrange(len(self.w))])
        exp_wx = math.exp(wx)

        predict1 = exp_wx / (1 + exp_wx)
        predict0 = 1 / (1 + exp_wx)

        if predict1 > predict0:
            return 1
        else:
            return 0


    def train(self,features, labels):
        self.w = [0.0] * (len(features[0]) + 1)

        correct_count = 0
        time = 0

        while time < self.max_iteration:
            index = random.randint(0, len(labels) - 1)
            x = list(features[index])
            x.append(1.0)
            y = labels[index]

            if y == self.predict_(x):
                correct_count += 1
                if correct_count > self.max_iteration:
                    break
                continue

            # print 'iterater times %d' % time
            time += 1
            correct_count = 0

            wx = sum([self.w[i] * x[i] for i in xrange(len(self.w))])
            exp_wx = math.exp(wx)

            for i in xrange(len(self.w)):
                self.w[i] -= self.learning_step * \
                    (-y * x[i] + float(x[i] * exp_wx) / float(1 + exp_wx))


    def predict(self,features):
        labels = []

        for feature in features:
            x = list(feature)
            x.append(1)
            labels.append(self.predict_(x))

        return labels

if __name__ == "__main__":
    print 'Start read data'

    time_1 = time.time()

    raw_data = pd.read_csv('../data/train_binary.csv',header=0)
    data = raw_data.values

    imgs = data[0::,1::]
    labels = data[::,0]


    # 选取 2/3 数据作为训练集, 1/3 数据作为测试集
    train_features, test_features, train_labels, test_labels = train_test_split(imgs, labels, test_size=0.33, random_state=23323)

    time_2 = time.time()
    print 'read data cost ',time_2 - time_1,' second','\n'

    print 'Start training'
    lr = LogisticRegression()
    lr.train(train_features, train_labels)

    time_3 = time.time()
    print 'training cost ',time_3 - time_2,' second','\n'

    print 'Start predicting'
    test_predict = lr.predict(test_features)
    time_4 = time.time()
    print 'predicting cost ',time_4 - time_3,' second','\n'

    score = accuracy_score(test_labels,test_predict)
    print "The accruacy socre is ", score

运行结果

这里写图片描述
训练速度挺慢的,但正确率还行

对比实验

感知器与逻辑斯谛实在是太像了,必须要比一比
我们依然用MNIST数据集,进行十次实验,下图是实验结果,蓝色是感知器,橙色是逻辑斯谛。
可以看出逻辑斯谛回归模型正确率上还是优于感知器模型的,原因可能就像我之前说的,是浮点数精度等问题

这里写图片描述

  • 4
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
第四章李航统计学方法(第二版)详细介绍了朴素贝叶斯算法以及其编程实现。朴素贝叶斯算法是基于贝叶斯定理和特征条件独立假设的分类算法。它通过计算给定类别的先验概率和各个特征的条件概率来进行分类。 在编程实现朴素贝叶斯算法的过程中,我们可以使用Python语言和sklearn模块来简化实现过程。sklearn是Python中一个非常常用的机器学习库,其中包含了很多经典的机器学习算法和常用的工具函数。 具体实现朴素贝叶斯算法可以分为以下几个步骤: 1. 引入相应的库和模块: ```python from sklearn.naive_bayes import GaussianNB ``` 2. 创建一个朴素贝叶斯分类器对象: ```python clf = GaussianNB() ``` 3. 准备训练数据和标签: ```python X_train = [[方法1特征1, 方法1特征2, ...], [方法2特征1, 方法2特征2, ...], ...] y_train = [标签1, 标签2, ...] ``` 4. 训练模型: ```python clf.fit(X_train, y_train) ``` 5. 准备测试数据: ```python X_test = [[方法3特征1, 方法3特征2, ...], [方法4特征1, 方法4特征2, ...], ...] ``` 6. 进行预测: ```python y_pred = clf.predict(X_test) ``` 这样就可以使用sklearn中的朴素贝叶斯算法模块来实现分类任务。实际上,sklearn还提供了多个不同的朴素贝叶斯算法实现,如高斯朴素贝叶斯算法(GaussianNB)、多项式朴素贝叶斯算法(MultinomialNB)和伯努利朴素贝叶斯算法(BernoulliNB)等。 总之,通过使用sklearn模块来调用朴素贝叶斯算法,可以方便地实现并应用该算法进行分类任务,并且能够根据需要选择不同的朴素贝叶斯算法模型。建议阅读第四章李航统计学方法(第二版)来更加深入地理解朴素贝叶斯算法的原理和实现细节。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值