![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 89
Ghost__2011
这个作者很懒,什么都没留下…
展开
-
初窥 AdaBoost
最近在开一篇人脸检测的论文的时候接触到了三个臭皮匠算法,哦,不对,是AdaBoost算法,找了一些资料来研读后,觉得这个思想特别有趣,因此将学习的内容进行了整理和总结。AdaBoost是一种机器学习分类算法。在介绍AdaBoost之前,我先介绍一下提升方法。我们在平时的学习过程中,常常会准备一个错题本,将那些我们翻过错误的题目记录在错题本上,反复学习,加深记忆。提升方法采用的就是这种思想,它旨在改...原创 2018-03-05 18:37:40 · 455 阅读 · 1 评论 -
K-Means 聚类
机器学习中的算法主要分为两类,一类是监督学习,监督学习顾名思义就是在学习的过程中有人监督,即对于每一个训练样本,有对应的标记指明它的类型。如识别算法的训练集中猫的图片,在训练之前会人工打上标签,告诉电脑这些像素组合在一起,里面包含了一只猫。而自然界中更多的数据样本,事实上是没有这些标记的,而我们针对这些没有标记的数据样本,对它们进行学习的算法就叫做无监督学习。聚类算法就是一种典型的无监督学习的算法...原创 2018-03-20 00:25:42 · 529 阅读 · 0 评论 -
Kaggle:Digit Recognizer (kNN手写数字识别)
1.KNNK-NN全称K-Nearest Neighbor,直译就是K近邻算法。是机器学习最简单的算法之一,算法思想很简单,给定一个输入,在训练数据集中找出距离最近的K个值,然后进行投票统计,高票者胜出。当K=1时,算法又叫做最近邻算法,即找出与输入向量最近的向量的标记作为输出。最近邻在训练集上总是会有最好的结果,因此可能会带来过拟合的问题。K-NN算法简单,但也有一些弊端,比如需要输入两个超参,...原创 2018-04-09 20:15:08 · 1288 阅读 · 1 评论 -
从导数到梯度下降算法
梯度下降是机器学习中寻找极值点的基础算法,它的思想也很简单。想象你站在山巅,山脉的起伏就带代表着,想要到达山谷的办法就是寻找下山最陡峭的地方,沿着这条路向下走,直到无法再向下。在介绍梯度下降算法前,我们先直到什么是梯度,而梯度我们又应该先知道什么是导数1.导数这是导数的标准定义,导数表示变量在指定位置的变化程度,变化快慢导数是高中就学习过的知识,也是微积分中重要的微分。导数的大小代表了函数的平缓或...原创 2018-04-03 02:42:27 · 1747 阅读 · 0 评论 -
感知机:神经网络的基石
感知机是监督学习算法中最基础的一种,也是神经网络,以及现在最流行的深度学习的基石。感知机是一种二分线性分类模型,输入为N维向量X,输出为分类值Y。感知机的目的是在特征空间中找到一个超平面,将输入划分为两个部分。感知机的集合解释是学习到一个 W*X + b = 0 的超平面,将数据集分类为两个部分。而如果一个数据集能够找到一个这样的超平面S将数据集的所有正负实例都完全正确地分解到超平面的两侧,则称数...原创 2018-04-17 01:37:11 · 271 阅读 · 0 评论 -
Rapid Object Detection using a Boosted Cascade of Simple Feature
这篇文章主要是对Rapid Object Detection using a Boosted Cascade of Simple Feature,Viola&Jones的学习总结。注:这篇文章中的特征值和线性代数的特征值不是一个东西,是我词穷的一种表述作者提到这篇文章主要有三个点1.使用积分图计算Haar-like特征2.使用AdaBoost训练数据3.使用级联的方式将分类器连接,加快对背...原创 2018-04-24 00:39:12 · 2108 阅读 · 0 评论