机器学习之广义线性模型

深夜博客在今天开张啦
一年前接触了机器学习,纯属个人兴趣,还没想到要入坑,现在沉迷无法自拔了哈哈哈。好了也不说太多废话了,今天的主题是广义线性模型啦!这篇博客是参考斯坦福cs229 lecture1中的Generalize Linear Models(GLM)及加上自己的理解,博主是个new comer,欢迎大家一起交流学习哦
在解释广义线性模型之前,有必要回顾一下线性回归(Linear Regression)和逻辑回归(Logistic Regression)。

线性回归–Linear Regression
线性回归模型可应用与监督学习(supervised learning)预测问题,如房价预测,疾病预测…….
对线性回归的直观解释: 找到一个线性函数能尽可能拟合已给出的点,如图
找到一个线性函数能尽可能拟合已给出的点

理论解释:
假设

X=[x1,x2,x3,.......,xm]T X = [ x 1 , x 2 , x 3 , . . . . . . . , x m ] T
xi x i 代表影响结果的一个特征(feature), y ∈ R
当X与结果y属于线性关系时,即可得到线性回归假设(hypotheses):
hθ(X)=θ1x1+θ2x2+.......+θmxm+b h θ ( X ) = θ 1 x 1 + θ 2 x 2 + . . . . . . . + θ m x m + b ;

写成向量形式即为:
hΘ(X)=ΘTX+b h Θ ( X ) = Θ T X + b

构造损失函数(损失函数就是用来表现预测与实际数据的差距程度):
cost function(损失函数):

J(Θ)=1/2isamples[hΘ(X)y]; J ( Θ ) = 1 / 2 ∑ i s a m p l e s [ h Θ ( X ) − y ] ;

目标即找到一组 Θ=[θ1,θ2,....,θm] Θ = [ θ 1 , θ 2 , . . . . , θ m ] 最小化J(Θ)。所用到的方法是梯度下降(gradient descent),在这里就不具体展开了,详细请看机器学习之梯度下降
在得到Θ向量后,将X_predict代入 hΘ(X)=ΘTX h Θ ( X ) = Θ T X 中即可得到y_predict
Tips: 为什么要用最小二乘法定义损失函数, 戳=> 线性模型概率解释

逻辑回归–Logistic Regression
逻辑回归模型应用于监督学习分类问题,暂且考虑二分类(如0,1分类)问题如
直观解释:得到一条函数将不同类别的分开,如图:
这里写图片描述

理论解释:
同样假设

X=[x1,x2,x3,.......,xm],Θ=[θ1,θ2,θ3,.......θm] X = [ x 1 , x 2 , x 3 , . . . . . . . , x m ] , Θ = [ θ 1 , θ 2 , θ 3 , . . . . . . . θ m ]

定义hypotheses(也就是预测预测结果 y^ y ^ )
h
  • 26
    点赞
  • 85
    收藏
    觉得还不错? 一键收藏
  • 13
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值