Coursera python机器学习
文章平均质量分 50
一连有梦咿
这个作者很懒,什么都没留下…
展开
-
Linear regression:Polynomial regression
Polynomial regression: 多项式回归原始输入变量为2个,如x0,x1,通过转换,把原来的两个输入变量转换为5个,那为什么需要进行这些转换?We can use to transform a problem into a higher dimensional regression space (可以把一个问题转换为一个更好维度的回归空间),并且增加了不同变量之间的互作关系运行Polynomial regression的代码展示下面的代码比较了三种回归模型,Linear regr原创 2021-10-31 13:38:57 · 180 阅读 · 0 评论 -
linear regression:Lasso 回归
Lasso 回归:是线性回归另一种形式的正则化,采取L1 penalty,使每个输入变量相关系数(coefficients)绝对值的和最小。Lasso 回归的代码展示原创 2021-10-31 13:18:45 · 294 阅读 · 0 评论 -
Linear Regression:Ridge regression
Ridge regression:岭回归与least-squares method (最小二乘法)相似,只是加了一个对输入数据权重的惩罚值, 这个惩罚参数称为regularization (正则化)。正则化降低模型的复杂度,防止模型的过度拟合。Ridge regression 利用L2 regularization, 使各个输入变量的权重平方和最小。另外,使用alpha 参数控制正则化,alpha值越高,说明越多正则化,模型越简单。增加alpha值,表明使W的平均值趋向于零,或者趋向于相同。如果输入变量原创 2021-10-31 13:02:56 · 279 阅读 · 0 评论 -
Linear Regression: Least-Squares
什么是线性模型前提假设:输入变量与输出变量呈线性关系什么是线性回归线性回归,可以说是一个线性模型的一个实例仅有一个变量(one Feature)的线性回归模型,如下,蓝色的点为训练数据,灰色和红色的直线为对训练数据的回归预测,红色的直线为最佳的线性回归模型如下,蓝色的点为训练数据,训练数据用于预测参数W0和b,其中用于评估模型参数的方法之一为least-squares linear regression,也叫做ordinary least-squares,该评估模型的主要原理就是当平均方差(每原创 2021-10-31 08:12:17 · 843 阅读 · 0 评论 -
K-Nearest Neighbours(KNN) 模型
KNN 模型,可用于分类和回归分析,KNN模型可记住整个训练数据,对一个new instance的分类流程有以下三步:如下图,当K=1时,分类边界线变化较大,not smooth,有时候呈锯齿状,高方差。这种模型具有高的复杂性,数据过拟合。尝试对每个点正确的预测,从而忽略了数据的整体分类趋势。如下图,当K=11时,分类界限更平滑,这种模型具有低的复杂性,单个点对预测的结果不会有巨大的影响KNN 模型的相关代码如下,设定K为1,3,11时,分类背景的平滑程度,以及训练数据及预测数据的准确性如下面原创 2021-10-31 07:35:26 · 1269 阅读 · 0 评论 -
Python K-NN分类器机器学习
监督性机器学习:输入训练数据(包括object的特征值及分类label),根据训练数据,寻找出一个最好的分类器(classifer),输入test 数据,使用训练出来的分类器进行分类,看结果是否跟已知的分类符合。监督性机器学习主要包括分类以及回归方程监督性机器学习的一个实例%matplotlib notebookimport numpy as npimport matplotlib.pyplot as pltimport pandas as pdfrom sklearn.model_select原创 2021-10-12 07:33:22 · 620 阅读 · 0 评论