![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
你好,机器学习
文章平均质量分 52
江城的程序员大叔
这个作者很懒,什么都没留下…
展开
-
浅谈机器学习的分类
机器学习、人工智能、深度学习...这些词汇相信大家已经在无数个场合看到了,那么它们究竟有什么区别呢?简单来说,人工智能包括机器学习包括深度学习,人工智能的领域非常广泛,包括很多内容,包括机器学习,而深度学习又是机器学习的一个分支。那么大名鼎鼎的深度学习,到底是何方神圣呢?机器学习的主要任务便是聚焦于两个问题:分类和回归。分类相信大家都不会陌生,生活中会见到很多的应用,比如垃圾邮件识别、信用...原创 2018-09-12 20:52:31 · 3823 阅读 · 0 评论 -
k近邻算法(kNN)python实现
kNN算法效果好,细想简单,作为初接触机器学习算法的同学来说,是很好的一个切入点。kNN算法的核心思想就是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。kNN主要用来解决监督学习中的分类问题。下面通过一个例子,来看看kNN算法的具体过程首先我们给出一个数据集,raw_data_X表示样本特征集合,raw_da...原创 2018-09-29 17:33:37 · 364 阅读 · 0 评论 -
基于scikit-learn实现k近邻算法(kNN)与超参数的调试
前一篇关于kNN的博客介绍了算法的底层实现,这片博客让我们一起看一看基于scikit-learn如何快速的实现kNN算法。scikit-learn内置了很多数据集,就不用我们自己编造假数据了,下面我们分别选用鸢尾花和手写数字识别的数据集。首先导入需要的库from sklearn import datasetsfrom sklearn.neighbors import KNeighb...原创 2018-10-22 16:12:33 · 2715 阅读 · 0 评论 -
基于sciket-learn实现线性回归算法
线性回归算法主要用来解决回归问题,是许多强大的非线性模型的基础,无论是简单线性回归,还是多元线性回归,思想都是一样的,假设我们找到了最佳拟合方程(对于简单线性回归,多元线性回归对应多个特征作为一组向量)y=ax+b,则对于每一个样本点xi,根据我们的直线方程,预测值为y^i = axi + b,真值为y,我们希望y和y^i的差距尽量的小。接下来我们看看通过sciket-learn来实现线性回归...原创 2018-10-24 09:59:52 · 722 阅读 · 0 评论 -
基于sciket-learn实现多项式回归
多项式回归在思想上和线性回归是一致的,都使用一条线去拟合样本值,进入用得出的模型去进行预测,在样本特征呈现出线性特性时,我们可以用线性回归去做预测,但是在样本特征很复杂的时候,线性回归往往会呈现出欠拟合的状态,这时就需要多项式回归。先来看一个小例子,给定一条二次曲线y=2x^2 + 2x,生成带噪声的100个样本点,绘制出图像 ,是我们熟悉的二次方程。x = np.random.unif...原创 2018-11-01 14:39:18 · 399 阅读 · 0 评论 -
基于sciket-learn实现SVM与核函数
支撑向量机(SVM)既可以用来解决分类问题,也可以解决回归问题,较多应用于解决分类问题,SVM尝试寻找一个最优的角色边界,距离两个类别最近的样本最远,拥有较好的泛化能力。下面从代码的角度一步步的来理解SVM先引入常用类库,导入鸢尾花数据集,取两个特征import numpy as npimport matplotlib.pyplot as pltfrom sklearn imp...原创 2018-11-06 18:14:20 · 577 阅读 · 0 评论 -
基于sciket-learn实现逻辑回归
逻辑回归虽然名称里有回归两个字,但是逻辑回归主要用来解决分类问题,并且只能解决二分类问题。(当然逻辑回归也可以解决回归问题;同时逻辑回归可以通过OvO、OvR等方法实现多分类,但本质还是二分类。)逻辑回归与线性回归不同的是,线性回归得出的是一个具体的预测值,预测房价的模型得出的就是房价,预测成绩的模型得出的就是成绩,而逻辑回归得出的是概率,通过概率大于小于来进行分类。下面是逻辑回归的公式:...原创 2018-11-05 14:55:34 · 539 阅读 · 0 评论