目录
一、线性模型与回归
线性模型一般形式:
其中x=(x1, x2, ..., xd)是由d维属性描述的样本,其中 xi是 x 在 第 i 个属性上的取值。
向量形式可记为:
![](https://img-blog.csdnimg.cn/b09345cabe1d4c828833e9539c59410b.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODgyMDIx,size_9,color_FFFFFF,t_70,g_se,x_16)
其中w=(w1, w2, ..., wd)为待求解系数给定数据集 D={(x1, y1), (x2, y2), ..., (xm, ym)} 其中xi=(xi1, xi2, ..., xid), yi
R
![](https://img-blog.csdnimg.cn/9d1ee5680e8443fe9cacd8e2c2e3c4fe.png)
举个简单的例子来说明,西瓜好坏的判定因素,x1,x2,x3…就可以分别用来指代,西瓜的色泽、根蒂和敲声,而w1、w2、w3…分别为其所对应的系数,系数越大说明该属性越重要。
二、多元线性回归问题
给定数据集:
![](https://img-blog.csdnimg.cn/61b5c1c4f64a4b8b85caed1c85143cf1.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODgyMDIx,size_7,color_FFFFFF,t_70,g_se,x_16)
通过属性的线性组合来进行预测的函数,
![](https://img-blog.csdnimg.cn/12d7a7e473db4a6fb230aab380f09769.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODgyMDIx,size_20,color_FFFFFF,t_70,g_se,x_16)
![](https://img-blog.csdnimg.cn/66046f08990946c386c17d36645e104f.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODgyMDIx,size_14,color_FFFFFF,t_70,g_se,x_16)
这样我们的在上面的公式就可以化成下面这个公式:
![](https://img-blog.csdnimg.cn/76df145e0fe14132b105858a0c1780e1.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODgyMDIx,size_10,color_FFFFFF,t_70,g_se,x_16)
对于这里我们求取极值只需求一次导数,并令该导数为0计算极值点w
上式可得
的闭解/解析解。
![](https://img-blog.csdnimg.cn/d8b834a648e74ed5adaa328f7dcf47b5.png)
三、Logistic回归
1.基于Logistic回归和Sigmoid函数的分类
我们要做的是二值型输出分类器,即有0和1。将因变量可能属于的两个类分别称为负向类和正向类,其中 0 表示负向类,1 表示正向类。Sigmoid函数公式:
为了实现Logistic回归分类器,我们可以将每个属性乘上一个回归系数,再把所有结果之相加,将这个综合代入Sigmoid函数中,得到值域为[0,1]。