![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
李航统计学习笔记
文章平均质量分 88
西风瘦马1912
在美留学生,从事可穿戴设备工作
展开
-
【李航统计学习笔记】第十章:隐马尔科夫模型
蓝色圆圈代表状态变量,绿色圆圈代表观测变量。模型参数及符号:状态集合: Q={q1,…qN}Q=\left\{q_{1, \ldots} q_{N}\right\}Q={q1,…qN}预测集合: V={v1,…vM}V=\left\{v_{1, \ldots} v_{M}\right\}V={v1,…vM}状态序列: I={i1,…iT}it⊂QI=\left\{i_{1, \ldots} i_{T}\right\} \quad i_{\mathrm{t}} \subset QI={i1,…iT原创 2022-08-15 05:27:34 · 187 阅读 · 1 评论 -
【李航统计学习笔记】第九章:EM算法
EM算法通过迭代求解观测数据的对数似然函数的极大化,实现极大似然估计。EM的极大似然估计中包含两个步骤:E步求期望和M步求极大。EM算法在每次迭代后均提高观测数据的似然函数值。EM算法通过迭代逐步近似极大化L。为了每次都能够极大化LLL,需保证每个步骤中L(θ)−L(\theta)-L(θ)−L(θ(i))L(θ(i))大于0。通过找到当前L(θ)−L(θ(i))L(θ)−L(θ(i))......原创 2022-08-15 05:25:17 · 290 阅读 · 0 评论 -
【李航统计学习笔记】第八章:adaboost
adaboost原创 2022-08-11 17:38:25 · 272 阅读 · 0 评论 -
【李航统计学习笔记】第七章:支持向量机
支持向量机原创 2022-08-11 17:03:04 · 183 阅读 · 0 评论 -
【李航统计学习笔记】第六章:Logistic regression
f(x)=sign(w⋅x+b) f(x)=\operatorname{sign}(w \cdot x+b) f(x)=sign(w⋅x+b)思考:感知机的缺陷:P(Y=1∣x)=exp(w⋅x)1+exp(w⋅x)P(Y=0∣x)=11+exp(w⋅x) \begin{aligned} &P(Y=1 \mid x)=\frac{\exp (w \cdot x)}{1+\exp (w \cdot x)} \\ &P(Y=0 \mid x)=\frac{1}{1+\exp (w \cdot x)} \原创 2022-08-01 05:54:48 · 114 阅读 · 0 评论 -
【李航统计学习笔记】第五章:决策树
(尾巴:补充一些例子)例子4.1:女朋友和妈妈掉河里了,路人拿出来3颗豆, 两颗红豆1颗绿豆。如果我抽中红豆救女朋友, 抽中绿豆救妈妈。我和路人各自抽了一颗, 路人发现自己抽中的是绿豆,他想用剩下的那颗和我换,我换不换?换不换豆女朋友活下去的概率一样吗?直觉来讲: 换不换豆我抽中红豆的概率应该都是 1/31 / 31/3 。这时路人跟我说他的是绿豆, 排除一颗, 我抽中红豆的概率是 1/21 / 21/2 。换不换概率都是 1/21 / 21/2 。计算一下:如果更换,那么其实就是重新在两个豆子中选了,所以原创 2022-07-31 22:45:29 · 294 阅读 · 0 评论 -
【李航统计学习笔记】第四章:朴素贝叶斯
(尾巴:补充一些例子)例子4.1:女朋友和妈妈掉河里了,路人拿出来3颗豆, 两颗红豆1颗绿豆。如果我抽中红豆救女朋友, 抽中绿豆救妈妈。我和路人各自抽了一颗, 路人发现自己抽中的是绿豆,他想用剩下的那颗和我换,我换不换?换不换豆女朋友活下去的概率一样吗?直觉来讲: 换不换豆我抽中红豆的概率应该都是 1/31 / 31/3 。这时路人跟我说他的是绿豆, 排除一颗, 我抽中红豆的概率是 1/21 / 21/2 。换不换概率都是 1/21 / 21/2 。计算一下:如果更换,那么其实就是重新在两个豆子中选了,所以原创 2022-07-24 23:24:29 · 186 阅读 · 0 评论 -
【李航统计学习笔记】第三章:KNN
KNN模型实际上对应于。算法3.1输入训练数据集T=[(x1,y1),…,(xN,yN)],xi∈X⊆Rn,yi∈Y={c1,⋯,cK},实例特征向量x。Nk(x)Nk(x)xy输出实例x所属的类别y。原创 2022-07-23 21:29:08 · 208 阅读 · 0 评论 -
【李航统计学习笔记】第二章:感知机
感知机(Perceptron)针对的是二分类的线性模型,其输入为实例的特征向量,输出为实例的类别,取+1、-1。假设输入空间是X⊆RnX \subseteq R^{n}X⊆Rn输入变量是x∈Xx \in Xx∈X输出空间是Y={+1,−1}Y=\{+1,-1\}Y={+1,−1}输出变量是y∈{+1,−1}y \in\{+1,-1\}y∈{+1,−1}由输入空间到输出空间满足下列函数: f(x)=sign(w⋅x+b) f(x)=\operatorname{sign} (w \cdot x+b) f(x)原创 2022-07-20 22:21:04 · 148 阅读 · 0 评论 -
【李航统计学习笔记】第一章:统计学习及监督学习概论
监督学习的实现步骤:得到一个有限的训练数据集合确定模型的假设空间,也就是所有的备选模型确定模型选择的准则,即学习的策略实现求解最优模型的算法通过学习方法选择最优模型利用学习的最优模型对新数据进行预测或分析训练集:T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\}T={(x1,y1),(x2,原创 2022-07-20 22:20:00 · 238 阅读 · 0 评论 -
第一周作业
第一周作业 1.1 正太分布极大似然估计 我们有X∼N(μ,σ2),σ≥0X \sim N\left(\mu, \sigma^{2}\right), \quad \sigma \geq 0X∼N(μ,σ2),σ≥0, 以及n个样本,因此我们可得到极大似然函数: L(θ)=P(x1∣θ)…..P(xn∣θ)⇒L(μ)=∏i=1nf(xi;μ,σ2)=∏i=1n12πσexp(−(xi−μ)22σ2)=(12πσ)nexp(−∑i=1n(xi−μ)22σ2)=(2πσ2)−n2exp(−∑i=1n(xi−原创 2020-06-02 00:34:51 · 82 阅读 · 0 评论