![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
统计学习方法
文章平均质量分 93
唐BiuBiu
这个作者很懒,什么都没留下…
展开
-
统计学习方法(三) 朴素贝叶斯(naive Bayes)上
统计学习方法(三) 朴素贝叶斯(naive Bayes)朴素贝叶斯是一个基于贝叶斯定理与特征条件独立假设的分类方法。三门问题不想搞的太枯燥,所以用大名鼎鼎的“三门问题”引入贝叶斯定理(这个问题真是太有意思了):三门问题(Monty Hall problem)亦称为蒙提霍尔问题、蒙特霍问题或蒙提霍尔悖论,大致出自美国的电视游戏节目Let’s Make a Deal。问题名字来自该节目的主持人蒙提·霍尔(Monty Hall)。参赛者会看见三扇关闭了的门,其中一扇的后面有一辆汽车,选中后面有车的那扇原创 2021-09-27 21:17:24 · 307 阅读 · 1 评论 -
统计学习方法(二) K近邻(KNN)
第一节的感知机使用了一种做辅助超平面的方式来分类,K近邻也可以分类(可以回归,但不讨论),而且从数学思想上更加直观:简单来说就是预测样本距离哪个类别最近就分为哪一类。相比感知机,K近邻天然具有多分类的能力。另外,K近邻没有明显的“学习”过程。算法最主要的是如何设置距离的度量和分类决策规则。(说白了就是怎么算距离,算好了又怎么确定类别)原书中对于K近邻是这样说的:K近邻法的输入为示例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。K近邻罚假设给定一个训练数据集,其中的实例类别已定。分类时对原创 2021-09-09 21:45:21 · 250 阅读 · 2 评论 -
机器学习中的距离度量(python实现)
最近读《统计学习方法》的时候用到了各种距离,这里做一个小总结,并且用numpy实现一下。一般的距离度量使用欧氏距离,就是我们生活中最常用的距离概念。但也可以使用其他的度量方式。这个部分比较有意思,后期的算法也能参考,所以详细记录一下。闵可夫斯基距离(LpL_pLp距离)(Minkowski distance)闵可夫斯基距离也叫LpL_pLp距离,欧式距离是LpL_pLp距离的一种特殊情况。在这里p>=1p>=1p>=1当p=2p=2p=2时,称为欧氏距离(Eu原创 2021-09-09 17:12:54 · 920 阅读 · 1 评论 -
统计学习方法(一) 感知机(Perceptron)
感知机是二分类的线性分类模型,属于非概率模型,判别模型。是神经网络和支持向量机的基础。一、感知机模型如上图,我们如果能用一条直线将两类不同的样本区分开,那么再拿到一个新的样本,我们就可以根据这条直线的位置将新样本分类。因此我们的目标就是找到这样的一条线(w⋅x+b)(w{\cdot}x+b)(w⋅x+b),那么用f(x)=sign(w⋅x+b)f(x)=sign(w{\cdot}x+b)f(x)=sign(w⋅x+b)就可以实现分类的目的。当然,这里说的是二维的情况。拓展到三维,这条线就变成了一个原创 2021-09-04 21:37:20 · 321 阅读 · 2 评论