监督学习——线性回归(二)

上回博客中,我们介绍了LMS算法,它通过梯度下降来最小化J(θ)。接下来介绍第二种方法:标准方程(The normal equations),它不需要借助重复算法而直接求出最小化J(θ)时参数的θ值。在该方法中,我们直接令J(θ)θj 求偏导得到的导函数等于0。
    首先我们来介绍一下线性代数相关的一些知识,它是后续我们过程的基础。
    1)矩阵求导
    假设f为关于矩阵A的函数,定义fA求导为:
    监督学习——线性回归(二)
   如果 监督学习——线性回归(二)监督学习——线性回归(二)
   那么我们有:
   监督学习——线性回归(二)
    另外,“tr.”符号表示矩阵的迹:矩阵对角元素之和。即:
    监督学习——线性回归(二)
    关于矩阵的迹有很多性质,例如:
    监督学习——线性回归(二)

    监督学习——线性回归(二)
    对于上述性质,我们就不一一证明了,感兴趣的可以自己证明。另外|A|表示A的行列式。接下来的四个性质,是我们后面推导会用到的。
    监督学习——线性回归(二)
    2)最小化J(θ)
       输入训练集X表示如下:
      监督学习——线性回归(二)
      注意,这里每一个x(i)都是一个训练集输入实例,该实例的值为一个列向量,其行数由训练集实例的输入特征变量的个数决定。即:
      监督学习——线性回归(二)
    同样的Y(公式中为y上加箭头),即:
      监督学习——线性回归(二)
    前面我们已经知道hθ(x(i)) = (x(i))Tθ,所以下式等于:     
      监督学习——线性回归(二)
      进一步,我们可以得到如下等式:
      监督学习——线性回归(二)
    对上式求偏导我们有:
    监督学习——线性回归(二)
    令上述偏导等于0,我们得到标准方程:
    监督学习——线性回归(二)
    进一步,利用该等式,我们就可以得到参数θ的取值。即:
    监督学习——线性回归(二)
    通过这种方式,我们就可以准确得到参数θ的值。不得不说,线性代数的魅力无穷啊,除了利用在这里,我们还可以发现很多算法书上关于图的算法,都会通过转换为矩阵的形式来得到,数学基本功非常重要啊,可惜我一直数学基础不好,自叹不如啊。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值