逻辑回归:
sklearn.linear_model
.LogisticRegression
class sklearn.linear_model.
LogisticRegression
(penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='lbfgs', max_iter=100, multi_class='auto', verbose=0, warm_start=False, n_jobs=None, l1_ratio=None)
参数
penalty: 可选{‘l1’, ‘l2’, ‘elasticnet’, ‘none’}, 默认=’l2’
penalty参数的选择会影响我们损失函数优化算法的选择。一般penalty选择L2正则化就够了。参数solver的选择,如果是L2正则化,那么4种可选的算法{‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}都可以选择。但是如果penalty是L1正则化的话,就只能选择‘liblinear’了。
dual:布尔值,默认False
对偶或者原始方法。Dual只适用于正则化相为l2 liblinear的情况,通常样本数大于特征数的情况下,默认为False
tol: 默认1e-4
误差容忍度
C:默认为1.0
正则化系数的导数。
fit_intercept:默认True
截距,默认为存在。常量系数。
intercept_scaling:默认为1
仅在正则化项为“liblinear”,且fit_intercept设置为True时有用。
class_weight: dict