线性回归以及非线性回归
可可茜里的传说
这个作者很懒,什么都没留下…
展开
-
sklearn- 一元线性回归
# sklearn完成机器学习的常用的库,算法封装在程序中,只需调用接口就可以使用机器学习算法from sklearn.linear_model import LinearRegressionimport numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt("data.csv", delimiter=",")x_data = data[:,0]y_data = data[:,1]plt.scatter(x原创 2021-11-16 15:59:18 · 972 阅读 · 0 评论 -
1-梯度下降法 一元线性回归
import numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt('data.csv',delimiter=",")x_data = data[:,0] #数据切分,第一行y_data = data[:,1] #数据切分,第二行plt.scatter(x_data,y_data) #散点图绘制plt.show() #图像大致呈散点图分布# 学习率 learing ratelr = 0.000原创 2021-11-16 15:38:07 · 1561 阅读 · 0 评论 -
2.3 梯度下降法
梯度下降算法的思想初始化senta1,senta0不断改变senta1,senta0,直到J(senta1,senta0)到达一个全局最小值,或局部极小值。由下列这张图来看其结果,红色区域值较大,蓝色区域值较大实现最小点的方法:不断求导,寻找梯度下降方向,不断迭代,最终找到最小点初始值在不同位置时,梯度下降的方向不同,最终找到的值并不相同,我们称其找到的点为局部最小值。梯度下降法执行:学习率:主要是用来优化步长通过公式来改变参数计算完成,同时更新(正确做法)梯度下降思想无论原创 2021-11-16 11:15:36 · 1593 阅读 · 0 评论 -
2.2 代价函数
代价函数最小二乘法真实值y,预测值ho(x),则误差平方为(y 一 ho(x))2找到合适的参数,使得误差平方和∶代价函数代价函数 senta = 0.5时senta1 = 0时取多个senta1 可以得到以下曲线,可以找找到代价函数最小点senta0 截距 senta1 斜率等高线中心点:代价函数最小值相关系数衡量线性相关性的强弱决定系数相关系数R2(coefficient of determination)是用来描述两个变量之间的线性关系的,但决定系数的适用范围原创 2021-11-16 10:52:31 · 911 阅读 · 0 评论 -
2.1 一元线性回归
回归(Regression)回归一词最早由英国科学家弗朗西斯·高尔顿(Francis Galton)提出,他还是著名的生物学家、进化论奠基人查尔斯·达尔文(Charles Darwin )的表弟。高尔顿深受进化论思想的影响,并把该思想引入到人类研究,从遗传的角度解释个体差异形成的原因。高尔顿发现,虽然有一个趋势∶父母高,儿女也高;父母矮,儿女也矮。但给定父母的身高,儿女辈的平均身高却趋向于或者“回归”到全体人口的平均身高。换句话说,即使父母双方都异常高或者异常矮,儿女的身高还是会趋向于人口总体的平均身原创 2021-11-16 10:26:20 · 567 阅读 · 0 评论