![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 91
Cccccent
这个作者很懒,什么都没留下…
展开
-
参数估计方法简述(贝叶斯估计,最大后验概率估计,极大似然估计)
参数估计方法 概率与统计: 概率:已知模型和参数,推数据结果出现的概率 统计:已知诸多结果,通过结果推概率分布(概率、参数、模型) 比如,我们现在要抛一个硬币,结果会是正面或者反面。我们可以把这个过程,视作一个系统,我们往系统里输入一个“抛硬币”的事件,系统就会返回一个结果(正面或反面)。所谓模型,就是这个系统在决定输出什么结果的时候,对各个结果分配的权重,权重越大,结果越容易出现。 我们在小学的时候,会经常遇到这样的问题:给了一堆苹果,有红的有绿的,让我们画一个统计表或者统计图,之后算一算拿到红苹果的可原创 2021-03-30 20:05:37 · 914 阅读 · 1 评论 -
【机器学习】统计学习方法(4)-贝叶斯估计-笔记
第四章 朴素贝叶斯法 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。 朴素贝叶斯法与贝叶斯估计不同。 4.1 朴素贝叶斯法的学习和分类 4.1.1 基本方法 输入:X⊆Rn\mathcal{X} \subseteq R^nX⊆Rn为n维向量集合 输出:Y={c1,c2,...,ck}\mathcal{Y} = \{c_1,c_2,...,c_k\}Y={c1,c2,...,ck},输出为类标记,y∈Yy\in \mathcal{Y}y∈Y 数据集:T={(x1,y1),(x2,y2原创 2020-08-27 23:48:20 · 306 阅读 · 0 评论 -
【机器学习】统计学习方法(3)-k近邻法-笔记
第三章 k近邻法 3.1 k近邻算法 注:本章只介绍分类问题的k近邻算法。 输入:训练数据集 T={(x1,y1),(x2,y2),...,(xN,yN)} T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} T={(x1,y1),(x2,y2),...,(xN,yN)} 其中,xi∈X⊂RNx_i \in\mathcal{X}\subset R^Nxi∈X⊂RN为实例的特征变量,yi∈Y={c1,c2,...,cK}y_i \in \mathcal{Y} =原创 2020-08-18 01:03:06 · 145 阅读 · 0 评论 -
【机器学习】统计学习方法(2)-感知机-笔记、习题
第二章 感知机(perceptron) 2.1 感知机模型 定义2.1:感知机模型 输入空间:X⊆Rn\mathcal{X} \subseteq R^nX⊆Rn 输出空间:Y={+1,−1}\mathcal{Y} = \{+1,-1\}Y={+1,−1} 输入特征向量: x∈X\mathcal{x} \in \mathcal{X}x∈X 实例的特征向量 输出值:y∈Y\mathcal{y} \in \mathcal{Y}y∈Y 实例类别 输入空间 -> 输出空间: f原创 2020-06-05 03:10:52 · 576 阅读 · 0 评论