机器学习-logistic逻辑回归原理 及 opencv实现

1.logistics回归原理

--吴恩达课程笔记

本笔记分成两部分:线性回归和逻辑回归,涉及概念:正规方程,过拟合,欠拟合,代价函数,梯度下降,学习率,正则化

1.1 线性回归

线性拟合即假设一个模型为多元线性方程(包括特殊的单元线性回归),回归方程可表示为:

h_{\theta }=\Theta _{\0}+\Theta _{\1}X_{\1}+\Theta _{\2}X_{\2}+...

其中\Theta ={\Theta _{0},\Theta _{1},...}表示假设模型的参数,X表示模型的特征向量。

      模型的作用在于给定一个输入的特征向量X,预测输出值h,一个好的模型预测到的值越接近实际值越好。

对线性回归方程有两种解法:一是梯度下降,二是正规方程。

1.1.1梯度下降法

梯度下降法是通过迭代方法不断优化模型一种算法,优化目标函数成为代价函数(cost function),代价函数意味让模型预测值接近真值需要花费的代价,所以定义为:

J\left ( \Theta \right )=\frac{1}{2m}\sum_{i = 1}^{m}\left ( h_{\Theta }-y \right )^{2}

需要经过计算不断更新新的\Theta向量,使J沿梯度下降方向减少。当J对\Theta的偏导为0的时候,即达到局部最优。

由于这里是线性回归,则J为凸函数(可以证明),局部最优即是全局最优。每次迭代时输入的样本数据个数为m,“Batch”梯度下降,使用所有的样本数据计算J的偏导。计算过程为:

Repeat{

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值