机器学习
从锅里爬
这个作者很懒,什么都没留下…
展开
-
机器学习-模型评估
模型评估与选择一.误差与过拟合分类器分类错误的样本数占样本总数的比例为错误率(errorate),E=m/n(m为分类错误的总样本数,n为总样本数),分类的精度(accuracy) P=(1-E)x100%学习器实际预测值和样本真实值之间的差异为“误差”训练误差/经验误差:学习器在训练数据上的误差泛华误差:学习器在新样本上的误差我们希望得到的是泛化误差尽可能小的学习器,在通过训练...原创 2019-01-24 16:50:31 · 1043 阅读 · 0 评论 -
机器学习-朴素贝叶斯分类器
一. 概率知识先验概率:先验概率(prior probability)是指根据以往经验和分析得到的概率后验概率:后验概率,事情已经发生,要求这件事情发生的原因是由某个因素引起的可能性的大小后验概率就是条件概率 p(c|x) = p(x|c)p(c)/p(x) 贝叶斯概率引入先验知识和逻辑推理来处理不确定的命题事情还没有发生,要求这件事情发生的可能性的大小,是先验...原创 2019-01-24 16:52:16 · 745 阅读 · 0 评论 -
机器学习-k-近邻算法
K-近邻算法(K Nearest Neighbors Classification)1. KNN概述1.1 KNN算法原理基于近邻的的分类是一种基于实例的学习或者非泛化的学习,它不会训练一个通用的模型,只是存储训练数据的实例样本,每当有新样本时,找到该样本在训练集中一些最近邻居样本,新样本的类别从它的这些最近邻居的类别投票中得到(少数服从多数)。算法原理:存在训练样本集,训练集中的每个样本...原创 2019-01-24 16:57:08 · 220 阅读 · 0 评论 -
Logistic回归-分类模型和梯度下降算法
输入数据:\( [(x_{1},y_{1}),(x_{2},y_{2}),…,(x_{m},y_{m})] \)原创 2019-01-30 15:06:04 · 919 阅读 · 0 评论 -
机器学习-支持向量机(SVM)
支持向量机(Suport Vector Machine)1.线性可分支持向量机如下图A给定训练数据集,两个类别分隔足够清晰,因此很容易在图中画一条直线将两组数据分隔开,这种情况下数据称为线性可分(linearly separable )数据 。由于数据在二维平面上,所以分隔超平面是一条直线;如果数据集是三维的,则分隔超平面是二维的;以此类推,如果数据集是N维的,那么分隔超平面就是N-1维的...原创 2019-02-25 18:17:22 · 507 阅读 · 0 评论