3.1:建立线性模型f(x)=ω1x1+ω2x2+⋯+ωdxd+b=ωTx+b、
算法原理:求w和b的过程(最小二乘法,极大似然估计)
3.2:线性回归
一元线性回归:
令其分别对w和b求导,,当结果等于0时,
多元线性回归:数据集,样本由d个属性
将w和化为向量形式
极大似然估计:求样本出现概率最大的分布,来求概率分布的参数值
3.3:单位跃阶函数不连续,用对数几率函数代替
其为Sigmoid 函数(形似S的函数),将对数几率函数代入
得到,用线性回归模型逼近对数几率,称为对数几率回归(是一种分类学习方法)
对数几率函数数学性质好,是任意阶可导的凸函数(机器学习中下凹的是凸函数,求最优解)。
3.4:LDA线性学习方法(二分类)