机器学习
文章平均质量分 77
楠兮兮
这个作者很懒,什么都没留下…
展开
-
计算机视觉——机器学习
绪论 计算机视觉旨在从图像中提取有用的信息。受可视数据复杂性的影响,这是一个极具挑战性的任务。广义理解的计算机视觉领域已经取得显著进步,随着人们日益增长的认识,计算机视觉的未来是令人激动的。一、概率论 几乎所有的计算机视觉模型可以在概率范围内解释,其形式上较为复杂,但可以阐明复杂模型之间的关系。1.1 概率论基础 随机变量xxx表示一个不确定的值,其可以是离散的或者连续的。离散变量的概率分布可以可视化为一个直方图,而连续变量的概率分布可以通过概率密度函数【Probability Densit原创 2021-05-19 09:11:30 · 962 阅读 · 1 评论 -
模式识别——特征描述与参数估计
一、概述 针对多元数据的统计分析方法,称多元统计分析。多元统计分析同时考察多个变量,从多源数据集中获取信息的统计方法。1.1 数据描述 通过平均情况,波动情况,变量相关情况,分布情况等描述数据的特征。1.2 统计推断 多元问题的假设检验。1.3 经典降维 使用少数几个变量代替原有的数目庞大的变量,把重复的信息合并起来,既可以降低现有变量的维度,又不会丢失重要信息的思想,称为降...原创 2020-05-06 22:07:04 · 865 阅读 · 0 评论 -
模式识别——EM算法
一、概率与似然 考虑以θ\thetaθ为参数的分布x;θx;\thetax;θ,若x;θx;\thetax;θ的分布已知,则该分布的一个随机样本xi=E[x;θ]x_i = E[x;\theta]xi=E[x;θ]若x;θx;\thetax;θ的分布未知,对符合其分布的样本进行抽样,得到了{xn}\{x_n\}{xn},则该分布的参数θ=argmaxθ lnL(θ∣xi)\the...原创 2020-06-15 16:00:14 · 627 阅读 · 1 评论 -
机器学习——无监督学习与分析
一、无监督学习 对于LR或SVM中的样本,都给出了正确的类标签,因此称为监督学习。当数据样本没有像监督学习那样,给出类标签或所谓的正确答案,那么需要靠算法本身发现数据中的结构,称为无监督学习。1.1 K-means算法 聚类的基本思想是,对于给定的数据集合,将数据聚集成若干一致的类。典型的聚类算法是K-means,用于寻找数据集合中的类,算法步骤如下 (1)从数据中初始化k个类中心点μ\bm\muμ; (2)设置第i个样本的类c(i)=argminj ∣∣x(i)−μ(j)∣∣c原创 2020-06-17 16:43:28 · 450 阅读 · 0 评论 -
机器学习——线性分类器与支持向量机
一、支持向量机 支持向量机是一种可以生成非线性分类器的学习型算法。首先介绍线性分类器,随后再推广到非线性分类。对于线性可分的数据,其线性分类包括两种直观理解,第一种为逻辑回归,若该算法的参数合适,那么其不仅需要保证分类结果正确,且要保证分类结果的确定性;第二种为线性分类线,若分类线的参数合适,其与两类样本的几何距离都足够远。1.1 线性分类器 首先定义函数间隔与几何间隔。考虑超平面(w,...原创 2020-05-25 12:37:46 · 2296 阅读 · 0 评论 -
机器学习——学习型算法
一、机器学习基础 机器学习正式的定义为:对一个计算机程序,给定任务TTT与一个性能测量方法PPP,如果在经验EEE的影响下,PPP对TTT的测量结果得到了改善,则说该程序从EEE中学习。1.1 线性回归 考虑样本数mmm,输入特征xxx与输出目标yyy,记第i个样本为(x(i),y(i))(x^{(i)}, y^{(i)})(x(i),y(i))。在监督学习中,首先寻找训练集合,并提供给...原创 2020-04-27 22:04:40 · 563 阅读 · 0 评论 -
机器学习——学习理论
一、经验风险最小化1.1 经验风险最小化的两种理解 考虑线性分类模型hθ(x)=g(θTx)g(z)=1{z≥0}h_{\bm\theta}(\bm{x}) = g(\bm\theta^T\bm{x}) \\ g(z) = 1\{z \ge 0\}hθ(x)=g(θTx)g(z)=1{z≥0}考虑训练样本{(x(i),y(i))}i=1m\{(\bm{x}^{(i)}, y^{(i)})\}_{i=1}^m{(x(i),y(i))}i=1m,定义训练偏差ϵ^(hθ)=∑i=1m1{hθ(x(i))原创 2020-06-13 13:55:27 · 418 阅读 · 0 评论