![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模式识别
apple^?
没事写写博客,不求关注,只为记录
展开
-
模式识别(一)贝叶斯决策理论和未知概率密度函数估计
原创 2017-05-07 08:17:49 · 1206 阅读 · 0 评论 -
模式识别(二)线性分类器
原创 2017-06-17 22:26:38 · 767 阅读 · 1 评论 -
模式识别(三)非线性分类器
遇到像图1中所示的样本分类,线性方法是无法发挥作用的。因为塔是线性不可分的,这时候必须采用非线性方法。 1. 多层感知器网络 多层感知器包含一个以上隐层和一个输出层,隐层将输入映射到一个超立方体顶点,输出层完成线性分类。通过隐层不断映射,最终可以将样本映射为线性可分。隐层中每个神经元相当于一个超平面,超平面将样本点映射到超立方体顶点上。假设一个感知器网络由L层构成,每层有原创 2017-09-23 22:21:58 · 3254 阅读 · 0 评论 -
模式识别(四)特征选择
数据归一化 归一化是为了将数据特征值限制在固定区间,这样可以在分类任务中更能关注相对特征值而不是特征值的绝对大小。归一化通常采用均值和方差来进行:原创 2017-12-28 20:26:11 · 1965 阅读 · 0 评论 -
模式识别(五)特征生成-1
Karhunen-Loveve变换 KL变换用于维数降低,维数降低可以大大降低计算量。KL变换是通过线性变换,将空间映射到另外空间,然后可以在另外空间进行维数裁剪,去掉影响较小的维,从而降低维数。 假设由x映射到y,变换为A,即有 其中R_y就是对角矩阵。然后可通过选择对应最小特征值的向量来作为新的维,从而降低维数。 奇异值分解 奇异值分解被广泛用原创 2018-01-23 20:52:42 · 755 阅读 · 0 评论 -
模式识别(六)特征生成2
根据处理的图像,声音,文本等信息的统计特性,可以给出很多反映信息特性的特征。模式识别也是对特征的辨别,不管是有监督的学习分类还是无监督的聚类,都间接或者直接的对特征进行了提取或者表征。比如线性回归,在使用一条曲线拟合一堆数据的时候,这条曲线(或者曲线参数)就是这堆数据的特征,而结果和实际值的平方和就是这种特征和数据的接近程度。 1. 图像的区域特征 (1) 一阶统计特征: 一幅图像的一阶统计原创 2018-03-01 17:03:31 · 486 阅读 · 0 评论