机器学习2 分类

1 逻辑回归

结论:如果参数不多的话,用牛顿法,因为牛顿法能让每次误差平方级别减小,加速收敛。如果参数很多,使用梯度下降。

逻辑回归的loss函数

在这里插入图片描述
因为输出是0或者1,所以对于0类和1类,采取交叉熵能够将他们整合在一起

法1 使用极大似然+梯度下降

对于输出为0或者1的这种二分的情况,显然如果用线性回归,将是很糟糕的做法
1.用S型函数映射
在这里插入图片描述

将y用s型函数g(z)进行映射,得到的结果是介于0到1之间的。
2.将某一个y的概率表达成伯努利的形式

在这里插入图片描述
3.假设有一批y:y1…yn,然后用极大似然函数进行模拟,取log把乘方拿下来,求其导数,然后迭代θ
在这里插入图片描述
在这里插入图片描述
注意: 这个结果和线性回归的结果表面形式相同,但是这里的h(x)套了一个S型函数。
个人疑惑: 这里为什么不令导数为0,直接一步求θ?

法2 使用牛顿法

当前仅仅了解非向量形式的θ迭代,但是对于向量形式,仍待研究。而且即便是非向量形式,为何导数等于0就预示着L(θ)最大?
个人疑惑: 如下迭代式子暂未研究
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值