【机器学习】线性回归+逻辑回归(理论)

线性回归

本博客为博主查阅大量资料后整理原创,虽水仍不易,如需转载,请附上本文链接https://blog.csdn.net/JasonLeeeeeeeeee/article/details/81019399,谢谢
本文若有不足之处可以交流沟通,互相学习

1. 介绍

在吴恩达大神的机器学习视频中,线性回归是第一块讲的内容,是以房价为例进行讲解。房价跟面积、地理位置等因素相关,具体呈现怎样的相关性,每个因素占多大的比重,这就是线性回归的主要功能了。我们在知道答案和各个影响因素的前提下,来训练学习每个因素在影响最终结果的比重,即每个因素之前的系数。在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合(自变量都是一次方)。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。

优点:结果易于理解,计算上不复杂。
缺点:对非线性数据拟合不好。
适用数据类型:数值型和标称型数据。

2. 模型推导

假设:
1. 输入的X和Y满足线性关系,通过训练可以建立机器学习模型,即输入的Y和X之间满足方程 Y=θTX+e Y = θ T X + e 其中 e e 是误差项,噪音项;
2. 最终训练出来的线性模型为 h θ ( x ) = θ T X
3. 使用表示数据组数,使用表示数据的维数;
4. 训练样本的数据量很大的时候,根据中心极限定律可以得到 e ∑ e 满足 (u,σ2) ( u , σ 2 ) 高斯分布的,由于方程有截距项 ,故满足 (0,σ2) ( 0 , σ 2 ) 的高斯分布,即 hθ(x)yiN(0,σ2)i=1 to m h θ ( x ) − y i ∽ N ( 0 , σ 2 ) i = 1   t o   m .

我们可以得到似然函数为:

L(y|x;θ)=i=1mP(yi|xi;θ)=i=1mN(hθ(xi)yi;0,σ2) L ( y | x ; θ ) = ∏ i = 1 m P ( y i | x i ; θ ) = ∏ i = 1 m N ( h θ ( x i ) − y i ; 0 , σ 2 )

两边取对数可得:
ln L(y|x;θ)=i=1mln N(hθ(xi)yi;0,σ2)=i=1mln (12πσexp(12σ2(hθ(xi)yi)2)) l n   L ( y | x ; θ ) = ∑ i = 1 m l n   N ( h θ ( x i ) − y i ; 0 , σ 2 ) = ∑ i = 1 m l n   ( 1 2 π σ e x p ( − 1 2 σ 2 ( h θ ( x i ) − y i ) 2 ) )

=i=1mln (12πσ)i=1m
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值