01_梯度下降Gradient Descent(BGD、SGD、MBGD)讲解
02_线性回顾损失函数及最小二乘讲解
注意:1、现在绝大数语言可以求得导函数,但是很难算出导函数为0后的x值
2、利用导数的特性可以用来做变化率,由于变化不能太大可以加上学习率α
注意:如果异常点较多,SGD一直不收敛,这时候就需要使用BGD
如果是正常样本,SDG在局部最优解时,收敛是很慢的;如果有异常样本波动就会很大,很可能会一直
波动无法收敛。
**52:21:00-02:12:37代码讲解
02_案例代码:Python实现SGD以及SGD波动性讲解
03_Ridge、Lasso算法API优化方式API参数讲解
04_线性回归算法总结及作业布置讲解
05_案例代码:葡萄酒分类案例代码讲解
06_Logistic回归分类算法原理讲解
g(z)的导数是它的原函数的组合
注意:
1.似然函数:因为是所有样本所以用累乘;
02:29:08-最大似然求导讲解
注意:
1.最大似然越大越好,损失函数越小越好。所以-最大似然函数=损失函数
07_案例代码:Logistic回归病理数据分类案例代码讲解
09_案例代码:Softmax算法葡萄酒分类案例代码讲解
**-03:34:35 代码讲解
08_Softmax回归分类算法原理讲解
注意:
1.softmax回归和logistics回归一样,也是做转换使用的softmax函数转换;
总结:
每个类别都训练出当前类别的特性;
来个一个新的样本去计算;属于哪个类别比较接近就会算出比较大的值;然后通过Softmax回归计算
出对应的概率值从而预测属于哪个类别;
Softmax函数损失函数:
1.I(x):判断预测正确的概率
2.将m个样本判断正确的概率进行求和
3.然后/m等比例缩放,这个值越大越好
4.最后对上值进行取反,损失函数就越小越好
Softmax函数求导:
03:48:40-03:52:04
10_案例代码:分类案例综合代码讲解
03:58:32-04:20:00 代码讲解
:day4