6.逻辑回归Logistic Regression

引言: 从上一节classification最后的部分中,我们最终得到分类问题可以用sigmoid函数和一个线性函数表示。既然我们知道分类问题最终表示为一个sigmoid加一个线性函数,线性函数的w和b可以由一系列复杂公式得出,我们能不能直接求出w和b而不用之前那么复杂的假设和公式?这个问题称之为logistic regression。 先看分类问题的step1:F...
摘要由CSDN通过智能技术生成

引言:

       从上一节classification最后的部分中,我们最终得到分类问题可以用sigmoid函数和一个线性函数表示。既然我们知道分类问题最终表示为一个sigmoid加一个线性函数,线性函数的w和b可以由一系列复杂公式得出,我们能不能直接求出w和b而不用之前那么复杂的假设和公式?这个问题称之为logistic regression。

       先看分类问题的step1:Function Set

       图形化为下图所示

       定义一系列training data:x1,x2,x3…及其标签,我们定义了新的loss function,目的在于最大化这个loss function

     将loss function取负并且对数化(对数化完全是为了计算方便),我们就可以minimize loss function了

      继续简化可以得到交叉熵代价函数的形式

     用loss function对wi做偏微分,我们可以得到wi梯度下降的公式

    第二部分偏微分

       logistic regressionlinear regression的差异

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值