scikit learn
Victoria1997
这个作者很懒,什么都没留下…
展开
-
scikit-learn 之岭回归
scikit-learn 之岭回归 基本语句 from sklearn import linear_model reg = linear_model.Ridge(alpha = 0.5) reg.fit([[0,0],[1,1],[2,2]],[0,1,2]) reg.coef_ #coeficients reg.intercept_ Plot Ridge coefficients as a f...原创 2019-01-11 11:07:33 · 361 阅读 · 0 评论 -
scikitlearn之Lasso回归
lasso回归 基本语法 from sklearn import linear_model reg = linear_model.Lasso(alpha=0.1) reg.fit([[0,0],[1,1],[2,2]],[0,1,2]) reg.coef_ #coeficients reg.intercept_ reg.predict([[1,1]]) 和之前的线性回归之类的都很像哦~ Lass...原创 2019-01-18 10:30:29 · 1262 阅读 · 1 评论 -
scikit learn之Elastic Net
from itertools import cycle from sklearn.linear_model import lasso_path,enet_path from sklearn import datasets import numpy as np import matplotlib.pyplot as plt diabetes = datasets.load_diabetes() ...原创 2019-01-25 11:49:34 · 374 阅读 · 0 评论 -
scikit learn 之OLS
scikit learn 之OLS 最近刚刚开始学习Python,之前是对R语言进行的机器学习比较熟悉了,所以算法的数学推导还算理解,主要是针对于Python中的函数进行了学习嘿嘿~希望自己能够输出带动学习!! 代码 from sklearn import linear_model reg = linear_model.LinearRegression() reg.fit([[0,0],[1,1]...原创 2019-01-10 11:11:39 · 906 阅读 · 0 评论 -
scikitlear之logistics回归
L1 Penalty and Sparsity in Logistic Regression #比较不同值C在L1和L2惩罚下解的稀疏性(零系数百分比)。可以看出,C值越大,模型的自由度越大。 #相反,C的值越小,对模型的约束越大。在L1惩罚的情况下,这会导致稀疏解。 #我们将8x8的数字图像分为两类:0-4和5-9。可视化显示了C变化模型的系数 import numpy as np impor...原创 2019-01-29 17:11:56 · 400 阅读 · 0 评论 -
scikitlearn之 LDA,QDA
1.2. Linear and Quadratic Discriminant Analysis Linear and Quadratic Discriminant Analysis with covariance ellipsoid from scipy import linalg import numpy as np import matplotlib.pyplot as plt import...原创 2019-02-13 16:34:46 · 724 阅读 · 0 评论