![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine learning
WYXHAHAHA123
这个作者很懒,什么都没留下…
展开
-
机器学习 朴素贝叶斯分类器
观测值:在computer vision领域可以被理解成是输入图像(可以认为是将输入图像flatten成M*N的feature vector) 决策:分类算法对于当前输入的观测值,所产生的预测分类。 对于分类器而言,观测值和决策是针对于测试数据而言的,对于训练数据,对应的名称为特征/输入和(分类)标签。作为机器学习的分类器算法的一种,朴素贝叶斯分类器同样是通过对于训练数据集(包括训练数据特征和...原创 2019-03-11 17:37:54 · 343 阅读 · 0 评论 -
机器学习中的ROC曲线
ROC曲线是评价分类器的性能好坏的标准。 在逻辑回归分类器中,最终模型预测出来的是一个概率值,表示当前的样本属于正类的概率。设定逻辑回归正类别的threshold即为t,如果逻辑回归模型预测出的概率值大于t,则预测为正类,如果概率值小于t,则预测为负类。 分类问题中的混淆矩阵(以二分类为例) gt\prediction 正类 负类 正类 TP FN 负类 ...原创 2019-03-27 19:33:13 · 876 阅读 · 0 评论 -
机器学习 集成学习
集成学习:构建一组基学习器(base learner),将多个基学习器的结果综合起来得到集成后的模型。 集成学习要优于单个学习器必须满足两个必要条件: (1)多个个体学习器/基学习器之间相互独立 (2)每个个体学习器/基学习器的性能要优于随机分类器,这种个体学习器通常被称为弱学习器:弱学习器指的是性能优于随机猜测(random guess)分类器/学习器的学习器。 bagging和boos...原创 2019-05-09 16:31:54 · 337 阅读 · 0 评论 -
机器学习 支持向量机
感谢 https://www.bilibili.com/video/av10590361/?p=31&t=183 当模型所使用的假设函数是线性函数时: f(x;W,b)=WX+b (1)在使用square loss平方误差损失+L2 normalization时,就是linear regression/ridge regression (岭回归:解法:最小二乘给出解析解或梯度下降) ...原创 2019-05-19 17:08:32 · 759 阅读 · 0 评论 -
python实现决策树
感谢 https://github.com/AliceDudu/Learning-Notes/blob/master/Machine-Learning-Algorithms/DecisionTrees/self-learning-c45algorithm-final.ipynb import os import math def createDataSet(): """ o...原创 2019-05-09 20:27:34 · 409 阅读 · 0 评论