sklearn.linear_model.Ridge解读

Ridge回归是一种线性最小二乘法,带有L2正则化项,用于防止过拟合。它通过在损失函数中添加权重向量的L2范数来控制模型复杂度。参数`alpha`决定了正则化的强度,其值越大,正则化效果越强。当`alpha`=0时,Ridge回归退化为普通的线性回归。示例展示了如何使用`sklearn.linear_model.Ridge`进行训练和预测。
摘要由CSDN通过智能技术生成

文章目录

class sklearn.linear_model.Ridge(alpha=1.0, *, fit_intercept=True, normalize=‘deprecated’, copy_X=True, max_iter=None, tol=0.001, solver=‘auto’, positive=False,

具有 l2 正则化的线性最小二乘。

最小化目标函数:
∣ ∣ y − X w ∣ ∣ 2 2 + a l p h a ∗ ∣ ∣ w ∣ ∣ 2 2 ||y - Xw||^2_2 + alpha * ||w||^2_2 ∣∣yXw22+alpha∣∣w22

Parameters:

  • alpha: {float, ndarray of shape (n_targets,)}, 默认=1.0
    • 乘以 L2 项的常数,控制正则化强度。 alpha 必须是非负浮点数,即在 [0, inf) 中。
    • 当 alpha = 0 时,目标等效于普通最小二乘,由 LinearRegression 对象解决。 出于数字原因,不建议对 Ridge 对象使用 alpha = 0。 相反,您应该使用 LinearRegression 对象。
    • 如果传递了一个数组,则假定惩罚是特定于目标的。 因此,它们必须在数量上对应。
  • fit_interceptbool, default=True
    • 是否适合此模型的截距。 如果设置为 false,则不会在计算中使用截距(即 X 和 y 应该居中)。
>>> from sklearn.linear_model import Ridge
>>> import numpy as np

>>> n_samples, n_features = 10, 5
>>> rng = np.random.RandomState(0)
>>> y = rng.randn(n_samples)
>>> X = rng.randn(n_samples, n_features)
>>> clf = Ridge(alpha=1.0)
>>> clf.fit(X, y)
Ridge()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值