![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
一般机器学习
老笨妞
29岁开始纯软的老笨妞。
展开
-
一般knn算法识别mnist数据集(代码)
本来是想弄个kd tree来玩玩knn的,但是mnist这样的数据集真是不好按维切分。把数据打印出来看了下,貌似灰度值大于3的都算是手写的印迹,着实不能取中值。既然这样,先拿一般的knn方法识别一下,看看效果和执行效率,再想办法这算一下mnist,玩玩kd tree吧。knn的基本原理在k-means、GMM聚类、KNN原理概述 有介绍,比较全的原理介绍在http://www.hankcs.com/原创 2017-09-14 13:55:41 · 10657 阅读 · 3 评论 -
朴素贝叶斯理论进阶(1)——cs229(4、5)笔记
朴素贝叶斯分类器是生成式模型的代表,同时朴素贝叶斯和逻辑回归都是线性分类器,两者可以组成了一组生成-判别对。为了更好的了解朴素贝叶斯,又倒回去看了Andrew ng的机器学习视频第4讲和第5讲,并做了如下笔记。以下知识基本上都是视频中的内容,没有什么自己的东西,如有对视频理解不到位的地方,欢迎指正。1.生成式方法简介分类算法要解决的问题是给定一个如下图训练集合,如果对它运行逻辑回归这样的算法,它会观原创 2017-10-18 19:17:40 · 1410 阅读 · 0 评论 -
Boost和bagging算法
无意间开启了xgboost,为了弄清楚它的原理,只能往下挖,随着xgboost->gbdt->boost来到基本的boost算法,同时也遇见了Boost的伙伴Bagging。接下来,稍微看看他们吧。学习Bagging和Boost首先需要了解两个名词“弱分类器”和“强分类器”。“弱分类器”的分类能力不强,但它又比随机选的效果稍微好点,类似于“臭皮匠”。“强分类器”具有很强的分类能力,也就...原创 2018-05-12 16:55:59 · 7763 阅读 · 0 评论