2.回归算法 _下

01_梯度下降Gradient Descent(BGD、SGD、MBGD)讲解

02_线性回顾损失函数及最小二乘讲解 

  注意:1、现在绝大数语言可以求得导函数,但是很难算出导函数为0后的x值
       2、利用导数的特性可以用来做变化率,由于变化不能太大可以加上学习率α 

         

  注意:如果异常点较多,SGD一直不收敛,这时候就需要使用BGD 

   如果是正常样本,SDG在局部最优解时,收敛是很慢的;如果有异常样本波动就会很大,很可能会一直
波动无法收敛。

 

**52:21:00-02:12:37代码讲解

02_案例代码:Python实现SGD以及SGD波动性讲解

03_Ridge、Lasso算法API优化方式API参数讲解

04_线性回归算法总结及作业布置讲解

05_案例代码:葡萄酒分类案例代码讲解

06_Logistic回归分类算法原理讲解

g(z)的导数是它的原函数的组合

 

注意: 
    1.似然函数:因为是所有样本所以用累乘;

 02:29:08-最大似然求导讲解

 

 注意:
    1.最大似然越大越好,损失函数越小越好。所以-最大似然函数=损失函数

07_案例代码:Logistic回归病理数据分类案例代码讲解 

09_案例代码:Softmax算法葡萄酒分类案例代码讲解

**-03:34:35 代码讲解 

08_Softmax回归分类算法原理讲解 

注意:
   1.softmax回归和logistics回归一样,也是做转换使用的softmax函数转换;
  

 总结:
    每个类别都训练出当前类别的特性;
    来个一个新的样本去计算;属于哪个类别比较接近就会算出比较大的值;然后通过Softmax回归计算
    出对应的概率值从而预测属于哪个类别;

Softmax函数损失函数:
    1.I(x):判断预测正确的概率
    2.将m个样本判断正确的概率进行求和
    3.然后/m等比例缩放,这个值越大越好
    4.最后对上值进行取反,损失函数就越小越好

 

Softmax函数求导:
  03:48:40-03:52:04

10_案例代码:分类案例综合代码讲解

03:58:32-04:20:00  代码讲解

 :day4 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值