sklearn学习笔记-逻辑回归LogisticRegression

sklearn.linear_model.LogisticRegression

LogisticRegression(penalty=’l2’, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’, verbose=0, warm_start=False, n_jobs=1)

参数   1  penalty   :str 'l1'或者'l2' 字面意义“惩罚”,即正则化项,L1正则项或者L2正则下项,默认L2

          2  dual        :boolean   默认为False

          3  tol           :float  默认1e-4   个人理解为,代价误差达到该值则停止计算

          4  C             :float  默认 1.0     C为代价项的系数,C越大表示整个代价函数中,代价项占比更多,即正则项影响较小;反之C越小,表示正则项影响更大

          5  fit_intercept

          6  intercept_scaling

          7  class_weight   :dict 或者 ‘balanced’,默认none

          8  solver             : {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’}求解目标函数的优化方法。小数据集-liblinear;大数据集-sag/saga求解速度更快;多分类问题-newton-cg/lbfgs/sag/saga;使用L2正则-newton/sag/lbfgs

           9  multi_class      : 'ovr'或者‘multinomial’

          10 n_jobs           : 任务数,使用的CPU核数,-1为使用全部CPU核心数。solver='liblinear'时不起作用

属性     1 coef     系数

             2 intercept_

             3 n_iter_  迭代次数

方法     1 fit (X,y)  拟合,X为除去标签的特征;y为训练集的标签

           2 predict(test) 预测,对测试集进行预测

后续慢慢补充
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值