大数据——机器学习
文章平均质量分 82
专注学习的娃
一个新入门的程序员
展开
-
机器学习之梯度下降算法模型
代码如下:from sklearn.metrics import mean_absolute_error,mean_squared_error,r2_scoreimport numpy as npimport matplotlib.pyplot as plt# 归一化函数def featureNormalize(X): mu = X.mean(0) std = np.std(X) X = (X - mu) / std index = np.ones((X.s原创 2022-05-02 23:26:53 · 727 阅读 · 0 评论 -
机器学习之实现多项式回归模型
代码如下:import numpy as npfrom sklearn.linear_model import LinearRegressionfrom sklearn.metrics import mean_squared_errorimport matplotlib.pyplot as pltfrom sklearn.preprocessing import PolynomialFeatures# 1. 读取So2.txt的数据data = np.loadtxt('D:\Pychar原创 2022-05-02 23:21:44 · 846 阅读 · 0 评论 -
机器学习之用解析解求解多元线性回归模型
代码如下:import numpy as npfrom sklearn.model_selection import train_test_splitfrom numpy.linalg import invimport matplotlib.pyplot as plt# 1. 读数据、预处理数据(aqi2.csv读取出来)# 这里的delimiter="," 代表的是用逗号分隔,skiprows=1代表的是前面第一行的数据不用带入。data = np.loadtxt(r"D:\Pycha原创 2022-05-02 23:11:39 · 1137 阅读 · 0 评论 -
机器学习之实现一元线性回归模型
代码如下:import numpy as npimport matplotlib.pyplot as pltfrom numpy import array""" 使用最小二乘法,拟合出一元线性回归模型:z = wx + b。一元的意思是样本x通过一个属性描述,原本可能是矢量x_i = (x_i1, x_i2...,x_id)被例如颜色,大小...属性描述,现在只有一个x_i1描述,则直接把矢量x_i看成标量,w也是标量计算出使得损失最小的w和b,画出拟合直线和原始的散点图点距离拟合原创 2022-05-02 23:03:45 · 1559 阅读 · 0 评论