- 博客(4)
- 收藏
- 关注
原创 一元线性回归(二) ----模型的评估与判定系数
判定系数:用于估计回归方程是否很好的拟合了样本的数据,判定系数为估计的回归方程提供了一个拟合优度的度量1 误差平方和---SSE对于样本中的第i次的观测值,应变量的观测值和应变量的预测值之间的离差为第i个残差,第i个残差表示用去估计的误差,于是,对于第i次观测值,它的残差是-,这些残差或误差的平方和是一个用最小二乘来极小化的量。这个量就是误差平方和,记作SSE简单总结为:实际...
2019-04-29 19:01:01 18052 1
原创 一元线性回归(一)----简单线性回归与最小二乘法
一 理论与基础自变量:样本的特征数值因变量:需要预测的样本的预测值1 简单线性回归(simple linear regression)y:样本的预测值,即回归模型中的应变量x:样本的特征数值,即回归模型中的自变量:回归模型中的误差项,误差项说明了包含在y里面,但不能被x与y之间线性关系解释的变异性2 线性回归方程,可以看到它是一条直线:回归直线y轴的截...
2019-04-16 14:27:24 43988 3
原创 逻辑回归(一) - - - 理论与sigmoid函数
# 关于逻辑回归的一些理论基础,以及sigmoid函数的可视化图# 线性回归的一点理解:''' h(s) = s_0 + s_1 * x_1 + s_2 * x_2 + ... + s_n * x_n 用过去的已知的数据,把X带入得到预测的Y_s,根据已知的Y,会找到合适的[s_0, s_1, _s2, ... , s_n] 把要预测的数据X_new带入到h(s),若X_new...
2019-04-03 21:56:36 439
原创 k-临近 - - - 一个简单的封装类
import numpy as np# k-临近,K-Nearest Neighbor,也称knn# 原理:有n个样本的数据集,现给定一个新的样本s,s与n个样本进行比较,选取k个与s相近的样本,查看k个样本属于哪个类型,# 个数最多的那个类型为s的类型''' knn封装类 '''class KNN(object): def __init__(self, k...
2019-04-03 21:52:55 197
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人