![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
统计机器学习
文章平均质量分 92
代码与诗
路过的都是风景
展开
-
机器学习之朴素贝叶斯(Naive Bayes)
概述 1.数学建模 2.参数估计方法 3.最大化后验概率假设-MAP的理解 4.reference 概述 朴素贝叶斯,朴素的含义在与对输入数据的特征做了独立性假设,简化了模型。贝叶斯顾名思义,采用了贝叶斯定理。一句话总结,基于贝叶斯定理和独立假设的分类方法。 参数估计中极大似然估计与贝叶斯估计的区别,以及参数的理解。 最大后验(MAP)假设的理论依据。 1.数...原创 2017-09-26 19:28:54 · 786 阅读 · 0 评论 -
logistic regression精简版笔记(重在体系和推导)
基础知识 关于sigmoid函数(参考之前的博文) softmax函数 δ(Zj)=eZj∑Kk=1eZk j=1,2,...,K\delta(Z_{j}) = \frac{{e}^{Z_j}}{\sum_{k=1}^{K}e^{Z_k}} \space j = 1,2,...,K 极大似然估计 原理 样本作为总体的一个采样,使用样本进行分布参数$\theta$的估计,可以得到多个估计,极大似原创 2018-03-15 22:28:20 · 277 阅读 · 0 评论 -
机器学习之逻辑回归(logistic regression)
概述 逻辑斯蒂回归实质是对数几率回归(广义的线性回归),是用来解决分类问题的。 其中sigmoid用来解决二分类问题,softmax解决多分类问题,sigmoid是softmax的特殊情况。 数学建模直接针对分类可能性建模。 参数学习可用极大似然估计或贝叶斯估计,利用极大似然估计求得的目标函数与交叉熵损失一致。 梯度下降之sigmoid和softmax函数的求导。 一、基本...原创 2017-09-17 23:01:05 · 3471 阅读 · 2 评论 -
机器学习之支持向量机
一、基本概念和数学公式 1.点到直线的距离公式 点P(x0,y0)P(x0,y0)P(x_0,y_0)到直线Ax+By+C=0Ax+By+C=0Ax+By+C=0的距离: d=|Ax0+By0+C|A2+B2−−−−−−−√d=|Ax0+By0+C|A2+B2d=\frac{|Ax_0+By_0+C|}{\sqrt{A^2+B^2}} 2.函数间隔与几何间隔 函数间隔 点(xi,...原创 2018-08-28 21:12:13 · 174 阅读 · 0 评论