【1】线性分类器不同与贝叶斯分类器:不考虑训练样本的基本分布
【2】判别式函数:
理解g(x)在决策面的一边为正、一边为负:是由于点x1,x2....构成的某种组合正好为0。当一个变量发生变化(体现为线上点的移动),组合值就会不为0
【3】感知机算法
感知器算法设的分割平面如上g(x),目标函数的含义是使分错的点最小。
假设为线性可分的情况:目标是找一条分类错误为0点线。
但分类错误的线可以是无数条,所以没有唯一解。
感知器算法的实质就是一个神经元。
【3】kesler算法:为了将感知器推广到高维,提出了kesler算法。基本思想:将样本点映射到高维
但是该算法不太常用,用到再看
【4】线性回归:最小二乘法分类器
思想线性回归一样。找一条直线去拟合这些点。
先理解一下均方误差可表示为的公式:1.均值=样本点*发生的概率 2.积分号求和 3.提出公共项p(w1)
【4.1】线性回归分类的多类问题