机器学习
文章平均质量分 90
moverzp
这个作者很懒,什么都没留下…
展开
-
k近邻法(k-nearest neighbor)
k近邻法(k-nearest neighbor)标签: 机器学习 Python1.什么是k近邻法k近邻法是一种基本的多分类和回归的算法,常常简称为kNN。kNN在李航的《统计学习方法》中的描述如下: 给定一个训练数据集,对新的输入实例,在数据集中找到与该实例最近邻的k个实例,这k个实例的多数属于某个类,就把该输入实例分为这个类。可以用一个简单的例子说明一下kNN,二维坐标下有一些点,如图所示:原创 2016-03-19 16:07:37 · 3153 阅读 · 0 评论 -
基于Python查看SVD压缩图片的效果
基于Python查看SVD压缩图片的效果标签: Python 机器学习机器学习中常用的降维方法是主成分分析(PCA),而主成分分析常用奇异值分解(SVD)。那么SVD的效果到底如何呢?SVD常用来进行图像的压缩,我们就来实验一下。用到的包:PILnumpy实验载入一张彩色图片,分别对其RGB通道进行SVD分解。奇异值的占比公式为: ∑Ki=1σii∑ni=1σii\dfrac{\sum_{i原创 2016-08-25 21:44:59 · 6451 阅读 · 2 评论 -
朴素贝叶斯(naive bayes)
朴素贝叶斯(naive bayes)标签: Python 机器学习主要参考资料:《机器学习实战》《统计学习方法》1.朴素贝叶斯分类原理朴素贝叶斯法是基于贝叶斯定理和特征条件独立假设(称为朴素的原因)的分类方法。先看看维基百科中贝叶斯定理的描述: 贝叶斯定理(维基百科) 通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而,这两者是有确定的关系,贝叶斯定原创 2016-04-01 15:39:13 · 2794 阅读 · 0 评论 -
使用不同的SVM对iris数据集进行分类并绘出结果
使用不同的SVM对iris数据集进行分类并绘出结果标签: 机器学习 Python译文之前的碎碎念SVM学习了也有一段时间了,公式基本都推导了一遍,明显感觉SVM的推导过程比之前学习的机器学习模型的推导过程都复杂,所以不打算自己实现SVM了,既然使用了Python,那就调用一下第三方的SVM包吧。经过一番搜索,最终决定使用scikit-learn,原因正如其主页所言:简单且高效的数据挖掘和数据分析工翻译 2016-04-11 16:03:54 · 33661 阅读 · 3 评论 -
梯度下降法(Gradient descent)
梯度下降法(Gradient descent)标签: 机器学习1.梯度下降法有什么用梯度下降法用来求函数的极小值,且是一种迭代算法,由于计算效率高,在机器学习中常常使用。梯度下降法经常求凸函数(convex function)的极小值,因为凸函数只有一个极小值,使用梯度下降法求得的极小值就是最小值。与其对应的有梯度上升法(Gradient ascent),用来求函数的极大值,两种方法原理一样,只是计原创 2016-03-13 15:09:51 · 14639 阅读 · 5 评论 -
线性回归及其Python实现(最大似然法)
线性回归及其Python实现(最大似然法)标签: Python 机器学习本节内容总结于博主在牛客网机器学习特训营的笔记 参考资料:《机器学习实战》目录1.什么是线性回归 2.回归系数公式推导 3.线性回归Python实现 4.线性回归的应用 5.总结 6.附录1.什么是线性回归(Linear Regression) 维基百科:线性回归 在统计学中,线性回归是利用称为线性回归方程原创 2016-01-17 15:20:31 · 12306 阅读 · 2 评论 -
Kaggle练习赛Titanic手札
Kaggle练习赛Titanic手札标签: Kaggle参考资料:https://www.kaggle.com/omarelgabry/titanic/a-journey-through-titanic/comments一、Titanic练习赛介绍kaggle上面的比赛有若干种,分别是Featured,Research,Playground和101等。Featured和Research比赛可以获得奖原创 2016-10-21 18:19:48 · 2562 阅读 · 3 评论