sklearn.linear_model.LogisticRegression
LogisticRegression
(penalty=’l2’, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’, verbose=0, warm_start=False, n_jobs=1)
参数 1 penalty :str 'l1'或者'l2' 字面意义“惩罚”,即正则化项,L1正则项或者L2正则下项,默认L2
2 dual :boolean 默认为False
3 tol :float 默认1e-4 个人理解为,代价误差达到该值则停止计算
4 C :float 默认 1.0 C为代价项的系数,C越大表示整个代价函数中,代价项占比更多,即正则项影响较小;反之C越小,表示正则项影响更大
5 fit_intercept
6 intercept_scaling
7 class_weight :dict 或者 ‘balanced’,默认none
8 solver : {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’}求解目标函数的优化方法。小数据集-liblinear;大数据集-sag/saga求解速度更快;多分类问题-newton-cg/lbfgs/sag/saga;使用L2正则-newton/sag/lbfgs
9 multi_class : 'ovr'或者‘multinomial’
10 n_jobs : 任务数,使用的CPU核数,-1为使用全部CPU核心数。solver='liblinear'时不起作用
属性 1 coef 系数
2 intercept_
3 n_iter_ 迭代次数
方法 1 fit (X,y) 拟合,X为除去标签的特征;y为训练集的标签
2 predict(test) 预测,对测试集进行预测
后续慢慢补充