李宏毅机器学习_分类_Logistic回归_4_2 paddlepaddle

在这里插入图片描述
交叉熵损失函数,最小就是,如果分布完全一样那就是0,这个就是针对分类的专门函数
在这里插入图片描述
线性回归和逻辑回归的梯度更新公式是一模一样的
在这里插入图片描述
逻辑回归如果用最小二乘的方式求损失函数,梯度更新的时候会导致出现很多0
在这里插入图片描述梯度变化不明显,不容易迭代判断得到最优解
在这里插入图片描述
判别模型的效果是要比生成式的模型效果要好,生成式是假设服从某个分布,跟数据的相关性更弱一些。
在这里插入图片描述
生成式模型有自己的分布假设需要更少的数据,对数据的噪声不敏感些,把整个函数拆成两项,可以来自不同的来源,语音辨识,语言和声音信号的融合。
在这里插入图片描述
多分类同样可以假设服从高斯分布推到出来,让大的更大,小的更小。用多维度的坐标进行分类,不用1,2,3放在类别的远近出现干扰。
在这里插入图片描述
线性函数,针对不能线性可分的时候,不好处理
在这里插入图片描述
通过转换函数,变成线性可分。
在这里插入图片描述
通过多个逻辑回归串起来实现转换
在这里插入图片描述
多个线性函数串起来实现非线性数据的分类,就是所谓的神经元进入深度学习。

本质上深度学习只是做了自动特征提取的工作而已,让线性不可分的特征变得线性可分,讨论还是之前的套路。

https://aistudio.baidu.com/aistudio/education/group/info/1978

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值