Logistic Regression

                                                             Logistic Regression

 

====================================classification=========================================

1、分类算法


 注: 假设h(x)的值在[0,1]这个范围内。

          逻辑回归算法属于分类算法。


==================================hypothesis-representation===============================

2、假设函数


     注     g(z)被称为Sigmoid function 或者 Logistic function ,右边是g(z)函数的图像。


注 : 假设函数是输入x,y=1的概率。

=================================decision-boundary==================================

3、决策边界


注:当h(x)>=0.5,则预测y=1;

       当h(x)<=0.5,则预测y=0;

       所以,当(theta)的转置*x>0时,y=1;

                  当(theta)的转置*x<0时,y=0;


注 :举例子


注:这是较为复杂的例子。


=================================cost-function=======================================

4、代价函数



注:左图为非凸函数,右图为凸函数


注:将非凸函数转变为凸函数,y=1的图像。横坐标为h(x)


注:将非凸函数转变为凸函数,y=0的图像。横坐标为h(x)


注:逻辑回归的代价函数


注:逻辑回归代价函数的简化

================================Gradient Descent==================================

5、梯度递减算法





 注 :其他的算法:

                             Conjugate gradient

                             BFGS

                             L-BFGS

          优势:1、不需要选择学习率α,2、运行速度快

          劣势:比较复杂





===========================Multiclass Classification=========================

6、多类分类



============================the-problem-of-overfitting==============================

7、过度拟合


  注:  左图  欠拟合

           中图   正确

           右图   过度拟合  其对训练数据拟合的非常好,但是对新的数据拟合度不高。



    注:解决过度拟合的方法

                1、减少特征

                2、正规化


   注:函数J为正规化后的cost function

           下图是过度拟合的图像和正规化后的图像



   注:正规化参数特别大的情况


  注:正规化后的梯度递减算法


 注:正规化后的正规方程


 注:cost function 的展开形式




  注:高级算法中cost function 实现思想,注意索引。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值