![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 63
小爷很皮
这个作者很懒,什么都没留下…
展开
-
4.svm-支持向量机
svm 我在这里将简要介绍svm算法以及其在sklearn中的使用方法 我这里只是过知识点 svm算法(支持向量机),能够同时处理分类和回归问题,我们这里主要介绍分类中的应用. 1.简介svm 我们用两个特征的样本举例: 对于逻辑回归,我们只是找到了一个决策边界能够分割开我们的样本,但是实际上是没有管样本的分布状态的,有可能决策边界距离一个类别非常近。这样显然是不合理的。 所以svm的核心思想就是找到如图所示的两直线,他经过两个类别中的离分界点最近的点,我们要找到让2d最大的直线, 这个2d我们叫做m原创 2021-12-14 19:26:58 · 690 阅读 · 0 评论 -
3.多项式回归和模型评估(解决过拟合)
这节我们会介绍多项式回归和在机器学习中最常遇到的问题过拟合.欠拟合 主要介绍使用模型正则化来解决过拟合的问题, 1.多项式回归 之前学习过线性回归的,我们学习多项式回归会很简单.我们遇到的很多都是非线性的问题. 下面举例说明 一元的 线性回归的基本形式为 ax1+b+… 一般的多项式的形式是 a1x^2+a2x+a3 这样看是不是多项式回归只是多了一个值X2的特征,所以我们只要将特征多增加一个x2就可以了 下面看代码: from sklearn.linear_model import LinearRe.原创 2021-12-02 23:50:35 · 1144 阅读 · 0 评论 -
2.线性回归
线性回归 比KNN算法,线性回归的求解过程可解释性更好 我们这里是使用方程来求解,并没有使用梯度下降法 1. 简单线性回归 我们先研究的最小二乘法,然后在一次类推到多元线性回归 对于简单线性回归(y=ax+b)求导可以得出: 多元线性回归的正归化方程: 记住里面的x有一组1的列 下面介绍一些基本概念: mse rmse mae 这些都是线性回归的衡量产生,sklearn里面mse,rmse现在集成在一个方法里面 最好的衡量线性回归的性能:R^2 R方越大越好,因为可以把方差看成base原创 2021-11-27 22:33:46 · 986 阅读 · 0 评论 -
1.KNN算法
KNN算法 KNN(k近邻算法),极其简单我用于机器学习入门 选择K个邻居,根据他们的类别投票,分类回归都可以用他 1. knn的使用流程化 train_test_split 我自定义的该方法 import numpy as np def train_test_split(x_data,y_data,rate=0.8,seed=None): ''' 实现自己的train_test_split :param x_data: 原生数据集合 :param y_data:原生原创 2021-11-27 17:22:35 · 854 阅读 · 0 评论