机器学习岗位面试问题汇总 之 线性回归和LR模型

线性回归

基本思想:用梯度下降法对最小二乘法行社的误差函数进行优化
几个式子:(1)假设 (2)优化目标 (3)梯度下降法(包括推导+特征缩放的目的)
优缺点:实现简单,但不能拟合非线性数据

LR模型

概念:分类、事件发生的概率、本质上是线性回归模型(解释为什么)
几个式子:(1)假设 (2)优化目标(推导) (3)梯度下降法(推导)
优点:实现简单,分类时计算量小、速度快、存储资源要求低
缺点:容易过拟合、一般准确度不高,原始的LR模型只能处理2分类问题
解决过拟合的方法:数据扩充、正则项、提前终止
如何用LR建立一个广告点击的模型:
特征提取—>特征处理(离散化、归一化、onehot等)—>找出候选集—->模型训练,得到结果
为什么LR需要归一化或取对数?
符合假设、利于分析、归一化也有利于梯度下降
为什么LR把特征离散化后效果更好?
引入非线性
LR的特性:
(1)可用于概率预测、也可用于分类 (2)只能用于线性问题 (3)各feature之间不需要满足条件独立假设,但各个feature的贡献独立计算

参考
《统计学习方法》,李航
《机器学习》,周志华
《斯坦福大学2014机器学习课程笔记》,Andrew Ng主讲,黄海广整理笔记
http://blog.csdn.net/sunpeng19960715/article/details/54745895

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值