![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 94
JokerYuuuuuuu
这个作者很懒,什么都没留下…
展开
-
线性回归
线性回归(Linear-Regression) 一.定义 将y作为因变量,x作为自变量,得到方程: y=β0+β1x y=\beta_0+\beta_1x y=β0+β1x 当给定参数β0\beta_0β0和β1\beta_1β1的时候,画在坐标图内是一条直线。当我们只用一个x来预测y,就是一元线性回归,也就是在找一个直线来拟合数据。 线性回归就是要找一条直线,并且让这条直线尽可能地拟合图中的数据点 二.损失函数 残差:真实值和预测值间的差值: e=y−y^ e=y-\hat{y} e=y−y^原创 2021-03-20 16:58:40 · 331 阅读 · 1 评论 -
KNN
KNN(K-NearestNeighbor) 一.K近邻算法的基本概念,原理 K近邻算法是一种基本分类和回归方法 即给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中,(类似于现实生活中少数服从多数的意思) 二.特征归一化 距离的度量 Lp(xi,xj)=(∑=1n∣xi(l)−xj(l)∣p)1p L_p(x_i,x_j)=(\sum_{=1}^n|x_i^{(l)}-x_j^{(l)}|^p)^\frac{1}{p原创 2021-03-20 14:06:59 · 281 阅读 · 0 评论