机器学习经典算法回顾之——逻辑回归(LogisiticRegression)

       写在前面的话:从今天开始,更新Leetcode算法题的同时,对学习过的经典机器学习算法做一个回顾与总结,以发博文的方式作为一个记录与学习笔记。

1.逻辑回归的模型函数:

其中:

       可以看到,逻辑回归的x值是嵌套在一个值在[0~1]之间的函数中,一般来说,当y>0.5的时候,z被归类为真(True)或者阳性(positive),否则当y<=0.5时,z被归类为假(False)或阴性(Negative)。

       所以,在模型输出预测结果时,不必输出具体y的值,而是根据上述判断标准来输出1(真)或0(假)。

2.模型的损失函数

       训练逻辑回归函数,我们已知了样本点(x,y),我们的目的是求出一组参数\Theta

       模型函数y=1表示样本点为阳性,故而我们可以得到:

        对于这个二项分布,我们有:

        对于m个数据,有:

为了方便计算,取负对数得到:

 3.采用梯度下降法进行优化损失函数:

       求导及推导结果如下:

       向量化后得到:

       其中,h是sigmoid函数。

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值