机器学习: 逻辑回归(Logistic Regression)

1. 原理

  1. 概述:

    这是一个分类模型。当输入一个新样本的时候,把样本的特征值输入到f(X)函数中,再将f(X)的结果输入到sigmoid函数中,输出即为分类结果。训练过程就是通过训练集合寻找f(X)的系数,使得分类误差最小。f(X)常用线性函数,训练的算法有梯度法、牛顿法等。

  2. sigmoid函数:

    logisitic分布的分布函数就是sigmoid函数。

    sigmoid

  3. logistic模型:

    sigmoid

    其中:f(X)可以是任意函数,最简单的就是多项式线性函数f(X)=k1*x1 + k2*x2 + … + kn*xn

  4. 训练算法:

    训练过程就是搜索f(X)的最优系数,使得风险函数(一般为0-1分类误差函数作为损失函数)最小。训练算法有很多种,梯度算法、牛顿算法等。

2. 实现:

  1. 我的实现(训练算法为剃度算法):

    https://github.com/autoliuweijie/MachineLearning/tree/master/regression

  2. scikit-learn:

    示例:

        #Import Library
        from sklearn.linear_model import LogisticRegression
        #Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset
        # Create logistic regression object
        model = LogisticRegression()
        # Train the model using the training sets and check score
        model.fit(X, y)
        model.score(X, y)
        #Equation coefficient and Intercept
        print('Coefficient: n', model.coef_)
        print('Intercept: n', model.intercept_)
        #Predict Output
        predicted= model.predict(x_test)

参考:

[1]《统计学习方法》 李航 2012年3月第一版
[2]《机器学习实战》 Peter Harrington  
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值