sklearn中的弹性网函数

语法:

 ElasticNet(self, alpha=1.0, l1_ratio=0.5, fit_intercept=True, normalize=False, precompute=False, max_iter=1000, copy_X=True, tol=1e-4, warm_start=False, positive=False, random_state=None, selection=’cyclic’)

类型:

 sklearn.linear_model.coordinate_descent 中的类,使用L1和L2组合作为正则项的线性回归。最小化目标函数为

1(2nsamples)||yXw||22+αl1_ratio||w||1+0.5 alpha(1l1_ratio)||w||22 1 ( 2 ∗ n s a m p l e s ) | | y − X w | | 2 2 + α ∗ l 1 _ r a t i o ∗ | | w | | 1 + 0.5 ∗   a l p h a ∗ ( 1 − l 1 _ r a t i o ) ∗ | | w | | 2 2

 如果关注L1和L2惩罚项的分类,记住下面的公式:
a=L1+bL2 a = L 1 + b ∗ L 2

 这里:
α=a+bl1_ratio=a/(a+b) α = a + b l 1 _ r a t i o = a / ( a + b )

 这里参数l1_ratio对用R中的glmnet包中的 α α α α 对用R中的 λ λ ,特别的,l1_ratio = 1 是lasso惩罚,当前 l1_ratio0.01 l 1 _ r a t i o ≤ 0.01 是不可靠的,除非你使用自己定义的alpha序列。

 在用户指南中读取更多。

输入参数:

  • 参数名:alpha
  • 类型:float, optional
  • 说明:混合惩罚项的常数,morning是1,看笔记的得到有关这个参数的精确数学定义。alpha = 0等价于传统最小二乘回归,通过LinearRegression求解。因为数学原因,使用alpha = 0的lasso回归时不推荐的,如果是这样,你应该使用 LinearRegression 。*

  • 参数名:l1_ratio
  • 类型:float
  • 说明:弹性网混合参数,0 <= l1_ratio <= 1,对于 l1_ratio = 0,惩罚项是L2正则惩罚。对于 l1_ratio = 1是L1正则惩罚。对于 0

属性

  • 参数名:coef_
  • 类型:array, shape (n_features,) | (n_targets, n_features)
  • 说明:参数向量(损失函数表达式中的 w w <script type="math/tex" id="MathJax-Element-3">w</script>)

  • 参数名:sparse_coef_
  • 类型:scipy.sparse matrix, shape (n_features, 1) | (n_targets, n_features)
  • 说明:sparse_coef_ 是从coef_ 导出的只读属性

  • 参数名:intercept_
  • 类型:float | array, shape (n_targets,)
  • 说明:决策函数中的独立项,即截距

  • 参数名:n_iter_
  • 类型:array-like, shape (n_targets,)
  • 说明:由坐标下降求解器运行的,达到指定公差的迭代次数。

实例:

#导入弹性网
from sklearn.linear_model import ElasticNet
from sklearn.datasets import make_regression

# 初始化数据,模拟数据
X, y = make_regression(n_features=2, random_state=0)
# 实例化弹性网类,设定随机种子,保证每次计算结果都相同
regr = ElasticNet(random_state=0)
# 训练弹性网
regr.fit(X, y)
# 打印系数,结果是[ 18.83816048  64.55968825]
print(regr.coef_) 
# 打印截距,结果是1.45126075617
print(regr.intercept_) 
# 打印预测值,结果是[ 1.45126076]
print(regr.predict([[0, 0]])) 

 为了避免不必要的内存复制,应该将fit方法的X参数直接作为一个fortranguous numpy数组传递

参阅

  • SGDRegressor:采用增量式培训实现弹性净回归。
  • SGDClassifier:用弹性网惩罚实现逻辑回归。
  • (SGDClassifier(loss=”log”, penalty=”elasticnet”)).
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值