LogisticRegression函数的各个参数意义

API参数意义备注

LogisticRegression的 parameters

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

PenaltyStr类型,可选项为‘l1’和‘l2’,默认为‘l2’,用来确定惩罚项的规范。‘newton-cg’,‘sag’和’lbfgs’仅支持‘l2’惩罚项。惩罚项是用来添加参数避免过拟合,可以理解为对当前训练样本的惩罚,用以提高函数的泛化能力。

dual

布尔类型,默认为‘False’,dual仅仅用在l2惩罚项的liblinear解法上。

Liblinear好像是线性多核,但不太清楚详细意思。

tol

float类型,默认为‘1e-4’,表示满足该精度时训练停止。

停止求解的标准,个人感觉应该是精度的意思。

C

float类型,默认为‘1.0’,正则化系数的倒数,取值必须为正浮点数。

例如在SVM中,值越小表示越强的正则化。

fit_intercept

布尔类型,默认为‘Ture’,确定是否有一个偏差或者截距应该被添加进决策函数。

 

intercept_scaling

float类型,默认为‘1.’,仅在解法‘liblinear’被使用且fit_intercept被置为True。

 

class_weight

字典类型或’balanced‘,默认为’None’,表示为各个类型样本的权重。如果没有给定,所有类型的权重为1。参数为‘balanced’则依照输入样本的频率自动调整权重。

‘balanced’参数的情况下,会按照比例调整比较多的类别的样本的权重降低,比较少样本的类别的样本权重依比提高。

random_state

int型,RandomState或None,默认为‘None',仅在算法为 ‘sag’  或 ’liblinear’ 时使用。

 

solver

{’newton-cg’ ,  ‘lbfgs’,  ‘liblinear’,  ‘sag’,  ‘saga’}, 分别为几种优化算法。默认为‘liblinear’。

--小数据集中,liblinear是一个好选择,sag和saga对大数据集更快;

--多类别问题中,除了liblinear其它四种算法都可以使用;

--newton-cg,lbfgs和sag仅能使用l2惩罚项,liblinear和saga使用l1惩罚项。

max_iter

int类型,默认为‘100’,仅适用于newton-cg, sag和lbfgs算法。

表示算法收敛的最大次数。

multi_class

str类型,{‘ovr’, ‘multinomial’}为可选参数,默认为‘ovr’,如果是二元分类问题则两个选项一样,如果是多元分类则ovr将进行多次二分类,分别为一类别和剩余其它所有类别;multinomial则分别进行两两分类,需要T(T-1)/2次分类。

在多分类中,ovr快,精度低;

Multinomial慢,精度高。

verbose

int类型,默认为’0‘,为liblinear和lbfgs算法设置一个任意正整数作为冗余

0表示不输出训练过程;

1表示偶尔输出;

大于1,每个子模型都输出

warm_start

布尔类型,默认为’False‘,如果为Ture,则使用上次的训练结果作为初始化参数,否则擦除上次的训练结果。

对liblinear算法无效

n_jobs

int类型,默认为‘1’,当multi_class=‘ovr’ 时并行处理的CPU核数量,当solver被设置为liblinear时不论multi_class是否被设置都忽略此参数。

如果给定的值为-1表示所有的CPU核都被使用。

 

  • 13
    点赞
  • 87
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 机器学习中的逻辑回归(Logistic Regression)是一种用于分类问题的监督学习算法。它被广泛应用于各种领域,如金融、医疗、社交网络等。 逻辑回归的基本原理是利用一个线性模型,将输入特征与输出结果之间的关系进行建模。然后通过在线性模型的基础上引入一个逻辑函数(sigmoid函数),将输出结果映射到一个概率值。 具体来说,逻辑回归算法通过对训练数据进行学习,估计出模型的参数,使得模型能够对新的输入样本进行分类预测。在训练过程中,逻辑回归通过最大化似然函数的方法来估计模型的参数。常用的优化算法有梯度下降法、牛顿法等。 逻辑回归的一个重要应用是二分类问题,其中输出结果只有两个类别。通过设置一个阈值,将模型输出的概率值映射为两个类别中的一个。 逻辑回归的优点包括简单、可解释性强、计算效率高。同时,逻辑回归对于处理大规模数据集和高维数据也具有较好的适应性。然而,逻辑回归也有一些不足之处,例如无法处理非线性关系以及对异常值比较敏感。 总之,逻辑回归是一种经典的机器学习算法,既简单又有效。它在各种分类问题中得到了广泛应用,并且在实际应用中表现良好。 ### 回答2: 机器学习中的逻辑回归(Logistic Regression)是一种常用的分类算法。它通过建立一个逻辑回归模型,将输入的特征与相应的类别进行关联。 逻辑回归可以处理二分类问题,也可以通过修改为多类别问题进行处理。它的核心思想是使用逻辑函数(也称为Sigmoid函数)将线性回归模型的输出映射到[0,1]之间,从而得到样本属于某个类别的概率。 逻辑回归的训练过程主要包括两个步骤:参数初始化和优化。参数初始化就是设置模型的初始权重和偏置,然后通过最优化算法(如梯度下降法)来迭代地更新参数,使得模型的损失函数最小化。 逻辑回归的优势在于它计算速度快、实现简单,且对大规模数据集的处理效果较好。它能够处理线性可分问题,并且可以通过引入正则化技术来防止过拟合。 然而,逻辑回归也有一些限制。由于它是基于线性模型的,对于非线性关系的分类问题,逻辑回归可能无法很好地适应。此外,逻辑回归对特征的选择和预处理较为敏感,需要进行适当的特征工程。 总的来说,逻辑回归是一种简单且有效的分类算法,特别适用于二分类问题。尽管有其局限性,但在实际应用中,逻辑回归仍然被广泛使用,并且可以作为其他更复杂模型的基础。 ### 回答3: 机器学习中的逻辑回归(logistic regression)是一种用于分类问题的机器学习算法。逻辑回归被广泛应用于各个领域,如医学诊断、金融风险评估、文本分类等。 逻辑回归的基本思想是通过对输入变量和输出变量之间的关系进行建模来进行分类。它用到了一个逻辑函数logistic function),将输入变量的线性组合映射到0和1之间的概率值。逻辑函数通常是sigmoid函数,常用的形式是1 / (1 + exp(-z)),其中z是输入变量的线性组合。 训练逻辑回归模型的过程是通过最大似然估计来拟合模型参数。最大似然估计的目标是找到能最大化观测到的样本的条件概率的参数。为了实现这一点,通常使用梯度下降法来最小化损失函数。损失函数可以是似然函数的负对数,即对数损失函数。 逻辑回归有一些优点。首先,它是一种简单而直观的模型,易于理解和实现。其次,逻辑回归模型的参数可以通过梯度下降等优化算法进行有效求解。此外,逻辑回归模型具有较好的解释性,可以通过参数的符号和大小了解自变量与因变量的关系。 然而,逻辑回归也有一些限制。首先,它通常只适用于处理线性可分的问题。其次,逻辑回归模型对于特征之间的相关性比较敏感,如果特征之间具有高度相关性,可能导致模型出现过拟合现象。此外,逻辑回归模型的输出是概率值,对于某些任务可能不够精确。 总之,逻辑回归是一种常用的机器学习算法,用于解决分类问题。其简单而直观的思想和容易求解的特点使其在实际应用中非常有用。但需要注意逻辑回归的局限性,并结合具体问题选择合适的模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值