斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降

(转载请注明出处:http://blog.csdn.net/buptgshengod)

1.感受

        这一节课Andrew讲的是监督学习应用中的梯度下降方法(Supervised-Learning,grading and descent)。
        公式比较多,不过还比较基础,主要是一些矩阵论的应用。

2.笔记   

      Grading and descent 主要用到的就是一个回归的思路。整体的流程见下图。

      X1,X2....表示的不同的特征,经过算法H的变化,输出Y1,Y2......。可以用公式表达为,X边上的变量就是我们要回归得到的系数。
     判断公式。这个ml回归中常用的判断公式,当J函数取到最下情况就是我们所需要的结果。
     Andrew形容梯度下降好比一个下山问题。我们首先随机选择出发点,也就是的取值,然后通过J函数求导,不断改变的值,得到最终的回归公式。这就类比于我们一步一步下山,直到山底,值不再变化。
    梯度下降还有一个特点就是最终的值根据不同的出发点而不同。
    

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值