关于逻辑回归的几个函数

写作业时重新理了下,如果有问题欢迎指正!

  1. 说是回归,其实就是个分类,用【0,1】标记结果y是录取还是录取,而影响结果y的就是X(x0,x1,…xn-1)。
  2. 怎么判断结果y是0还是1用到的是逻辑回归函数(也叫假设函数,随便怎么叫)
    h θ ( x ) = 1 1 + e − θ . T x h_\theta(x)=\frac{1}{1+e^{-\theta.Tx}} hθ(x)=1+eθ.Tx1(.T是矩阵的转置,θ和x都是矩阵的形式。实际代码实现中用矩阵进行计算更方便),当 z = − θ . T x z=-\theta.Tx z=θ.Tx为0(正好卡在决策函数上,决策函数就是分类的那条线,后面还会说),预测结果发生概率为0.5,在决策函数的A部分就往1趋近,反之往0趋近。
    逻辑回归函数的作用,网上搜的规范点说法:将取值范围(−∞,+∞)映射到(0,1) 之间,更适宜表示预测的概率,即事件发生的“可能性” 。
    在这里插入图片描述
    3. z = − θ . T x z=-\theta.Tx z=θ.Tx θ . T x \theta.Tx θ.Tx 这个就是决策函数,也就是y = θ0x0 + θ1x1(假设就两个参数,而且次数都是1),矩阵theta 包括 θ0 + θ1 + θ2 + … + θn-1,矩阵x包括x0 + x1 + x2 + … + xn-1
    决策函数的作用就是把0和1的结果隔离开,逻辑回归函数的作用就是计算预测结果的可能性。
  3. 为了获取最合适的决策函数,需要代价函数来计算代价最小时的theta(梯度下降)。这里计算代价不能再用线性回归的代价函数了,会有多个局部最值。(详细可以看吴恩达教授的视频,b站就有)
    这是逻辑回归的代价函数,推导可以看这个https://blog.csdn.net/W_Y_J_love/article/details/105415927在这里插入图片描述
  4. 总的来说就是根据代价函数求出满足训练数据集的代价最小的theta。
  5. 但是!如果数据不够还追求代价函数最小化,很有可能导致过拟合,再导入新的数据就可能出现大麻烦!所以请考虑一下正则化,目的就是为了不让决策函数过拟合。不理解正则化原理可以看看这个https://zhuanlan.zhihu.com/p/345566088
    • 正则化是从θ1开始而不是从θ0
      在这里插入图片描述

    • 正则化函数引入参数λ,共同影响了在计算回归函数的代价函数的最小值的取值(λ与θ相互制约,谁也不让谁太过分)(听起来有点绕hh),其实就是极值点因为引入的正则化函数偏移了。
      在这里插入图片描述

    • 正则化函数取θ2更温和, 不会直接把大量的特征归零。(看图)
      在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值