机器学习
Traditional Machine、Learning Deep Learning
TLDX-XIONG
这个作者很懒,什么都没留下…
展开
-
朴素贝叶斯算法
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法(与贝叶斯估计是不同的方概念),对于给定的训练数据集,首先基于特征条件独立假设学习输入和输出的联合概率分布;然后基于此模型,对于给定的输入 xxx ,利用贝叶斯定理求出后验概率最大的输出 yyy 。朴素贝叶斯方法实现简单,学习与预测的效率都很高,是一种常用的方法。 1. 基本方法 设输入空间 X⊆Rn\mathcal{X}\subseteq\mathbf{R^n}X⊆Rn 为 n\text{n}n 维向量的集合,输出空间为类标记集合 Y={c1,…,c原创 2020-10-05 20:46:39 · 219 阅读 · 0 评论 -
K-NN Algorithm(K-NN算法原理)
k\text{k}k 近邻法(k-nearest neighbor\text{k-nearest neighbor}k-nearest neighbor) 是一种基于分类和回归的方法,这里我们只讨论分类问题的 k\text{k}k 近邻法。k\text{k}k 近邻输入为实例点的特征向量,输出为实例所属类别。 k\text{k}k 近邻假定给定了一个训练数据集,其中的实例类别已经确定。分类时,对新的实例,根据其 k\text{k}k 个最近的训练实例的类别,通过多数表决等方式进行预测。原创 2020-08-19 21:25:09 · 436 阅读 · 0 评论 -
The Proof of the Perceptron Algorithm(感知机算法证明)
1. 问题描述 感知机算法的提出最初被用来解决二分类问题,即给定 NNN 个样本,其中每个样本都是 ppp 维的向量。每一个样本属于 C1C_1C1 或 C2C_2C2。我们的任务是找到一个超平面来将所有样本进行准确分类并且具有较强的泛化能力。 2. 问题数学描述 这里我们将这类问题抽象为数学描述。我们假设 x1,x2,…,xNx_1,x_2,\ldots,x_Nx1,x2,…,xN 是 ppp 维向量。然后我们将 x⃗1,x⃗2,...,x⃗N\vec{x}_1,\vec{x}_2,...,\v原创 2020-08-19 17:37:25 · 315 阅读 · 0 评论