机器学习笔记——线性回归与逻辑回归

线性回归是什么:

线性回归是回归问题的一种,模型试图去找到y 与 x 的线性关系同时去预测新输入的输出值。模型会找到一条直线使得图像上的每一个点到这条线的欧式距离之和最小,也就是均方误差(MSE)最小。

那如何去找到这条直线呢:

当只有一个输入值的时候,我们找到所有样本的预测值的误差的平方之和也就是均方误差(MSE),然后我们通过求偏导为0的方式求得当均方误差最小的时候m和b的取值。

而当有多个输入的时候(比如一栋房子的价格会与其地段,房屋面积,配备设施有关,所以在这个例子里就会有三个输入) 这条线就会表示为  然后我们就会将n个m和b整合为一个列向量w=\begin{bmatrix} m1\\ m2\\ m3\\ ...\\ mn\\ b \end{bmatrix} 其大小为(n+1)*1 然后对于m个样本,每个样本有n个特征,我们也将他们整合为矩阵X=

那么最后我们会得到 f(xi) = 

在这种情况下我们也有另外一种更加直接的方式,那就是梯度下降(gradient decent)

梯度下降可以理解为一个下山的过程,随机一个出发点,然后根据起始点的斜率更新下一次的位置,再在下一次的点做同样的操作,这样就慢慢走到山底,也就是收敛至局部最低点。也许每一次收敛的局部最低点都是不一样的但这也是无法避免的,我们可以多试几个不同的随机起始点来取得最低点。

Image result for gradientdecent

而具体的公式如下图所示。

在这里\alpha表示的是步长,如果太大的话会跨过最小点或是说无法收敛,可能会越来越大,而同时如果\alpha太小的话计算量会特别大,也就是下山会花很长时间。所以一般情况下\alpha都是一个较小的正数

逻辑回归是什么?

与其说逻辑回归是回归模型不如说是一个分类模型,其本质是我们默认数据服从我们设定的分布然后使用极大似然估计来估计参数。就好比我们有两枚硬币A和B,硬币A抛投100次有99次正面朝上,而硬币B则有99次反面朝上,这时我们闭着眼拿了一枚硬币抛投,如果它是正面朝上我们就认为我们拿的是硬币A,反之亦然。

逻辑回归分布

我们会将连续值x映射到0和1之间,当x趋近无穷大时S(x)趋近于1,而当x趋近无穷小时S(x)趋近于0

 

 举个例子

在下图中每个点都可以用一个向量表示x = \binom{Exam 1}{Exam 2},这里的决策边界可以表示为wx+b=0。 w就是垂直于这条直线的单位法向量,如果wx + b > 0 我们就判断这个学生通过了考试,wx + b < 0那么这个学生就没有通过考试。

查看源图像

 现在我们需要找到每个学生通过考试的概率 P(Y = 1 | x ) 在这里我们有多种选择,最基本的就是阶跃函数,也就是 wx+b = z , z<0 p(x) = 0 , z=0 p(x) = 0.5 , z>0 p(x) = 1。

 而如果我们需要的概率时连续值的时候就可以用P(Y = 1 | x) = \frac{1}{1-e^{w\hat{x}+b}} 而相应的P(Y = 0 | x) = 1 - P(Y = 1 | x)

代价函数

现在我们确定了逻辑回归模型的数学形式,之后我们便需要求解模型中的参数,我们会使用极大似然估计法来求解。

似然函数:

 最终我们得到损失函数

 推导详见【机器学习】逻辑回归 1.3

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值