0.特征选择
【1】特征选择:就是挑选具有较高区分能力的特征(理:之前还在西瓜书的决策树和特征选取中学习过信息熵的方法)
1.问题的出现
【1】常见的特征评价标准多用于单变量的度量(例子:西瓜书里的信息熵、过滤式特征选取里的距离法),只能保证在选取时本轮最优,但无法保证所选整体最优。
【2】所以有的特征选取方法:SPFS可以解决特征的互补性和冗余性。但仍有不合理之处。这个不合理之处就是本文的亮点。
【3】本文的亮点:常见的选择法降低的是特征间的冗余性,不合理,因降低特征之间与分类有关的冗余性。
【4】本文的亮点:选择法以最大化离散为目标,忽略了类与类之间的相关性。
2.矩阵的k范数
【1】是矩阵内部各元素的平方和,再开根号
【2】可由迹计算(对角线元素之和),具体看下链接
【3】https://zhidao.baidu.com/question/2142560970431214268.html
3.矩阵相乘的意义
【1】从乘法角度去理解:简单乘法的集合。启示:将多个乘法运算集合为矩阵,运行速度将提升
【2】从运动?坐标变换去理解?还未用到。
n.问题
【1】怎么去除冗余的部分,一个特征还能拆么。照我的理解,面积和长、宽,面积直接去掉
【2】为什么要考虑类与类之间的相关性
【3】目标函数,即(1)式它内在的几何意义是什么?比如之前svm距离最大、集成学习指数损失函数最小