Datawhale集成学习-学习笔记2

1. 请详细阐述线性回归模型的最小二乘法表达

基于均方误差最小化来进行模型求解的方法,主要思想是选择未知参数使得理论值与观测值之差的平方和达到最小。在线性回归中,最小二乘法就是视图找到一条直线,使所有样本到直线上的欧氏距离之和最小。
求解 和 ,使得损失函数 1 m ∑ i = 1 m ( y i − w x i − b ) 2 . \frac{1}{m} \sum_{i=1}^{m} (y_i - wx_i-b)^2. m1i=1m(yiwxib)2.最小化的过程,称为线性回归模型的“最小二乘参数估计”。

2. 在线性回归模型中,极大似然估计与最小二乘估计有什么联系与区别吗?

线性回归的最小二乘估计 <=> 噪声ε ~ N(0, δ²)的极大似然估计。

3. 为什么多项式回归在实际问题中的表现经常不是很好?

因为阶数越多,多项式曲线就会越光滑,在边界处有异常的波动,预测效果的稳定性下降。

4. 决策树模型与线性模型之间的联系与差别

线性模型的模型形式与树模型的模型形式有着本质的区别,具体而言,线性回归对模型形式做了如下假定: f ( x ) = w 0 + ∑ j = 1 p w j x ( j ) f(x) = w_0 + \sum\limits_{j=1}^{p}w_jx^{(j)} f(x)=w0+j=1pwjx(j),而回归树则是 f ( x ) = ∑ m = 1 J c ^ m I ( x ∈ R m ) f(x) = \sum\limits_{m=1}^{J}\hat{c}_mI(x \in R_m) f(x)=m=1Jc^mI(xRm)。那问题来了,哪种模型更优呢?这个要视具体情况而言,如果特征变量与因变量的关系能很好的用线性关系来表达,那么线性回归通常有着不错的预测效果,拟合效果则优于不能揭示线性结构的回归树。反之,如果特征变量与因变量的关系呈现高度复杂的非线性,那么树方法比传统方法更优。

5. 什么是KKT条件

6. 为什么要引入原问题的对偶问题

References:
[1]: https://github.com/datawhalechina/ensemble-learning
[2]: https://www.zhihu.com/question/24095027/answer/794262860
[3]: https://zhuanlan.zhihu.com/p/361171616
[4]: https://zhuanlan.zhihu.com/p/26514613

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值