python 最小二乘回归 高斯核_《图解机器学习》之logistic回归概率分类

大一小白,蒻蒟一个。记录机器学习的学习过程,功底欠缺,某些地方理解错误,还请多多指教。●▽●

首先这是一个有监督分类方法,就是数据是给出了样本的正确类别的。

而此逻辑回归非比逻辑回归,此是概率分类下的逻辑回归:

概率分类:生活中,常常需要对样本进行分类,分类的方法有很多(支持向量机,最小二乘分类,逻辑回归等等)而本文讲得逻辑概率回归分类是:通过求出样本对所有类别的概率,取最大概率所对应的类别即为目标值。

那这个概率怎么求呢?

用个下面这个公式建模:

7bb4c38d8cb2ebb1acf1e5e173209bf9.png

公式很复杂,而小白对它的理解是:分子是样本在这个特定类别对应的概率值,而分母是样本对应于每个类别的概率值的和,这个和的值为1,概率值算法可以理解为exp(θ*fx),

好了,概率模型有了,那么如何最优化呢?

fx也是一种需要选择出来的模型,不需要我们去优化,我们要求的是θ,怎么求呢?

方法:

本文开头说过,这是一个有监督分类,即数据是提供了正确分类滴,我们就把模型求出来的每个样本正确分类所对应的概率值拿出来,并且相乘得出一个目标值,那么优化目标就很明显了,正确类别的概率必须要高,所以把这个目标值往更大的方向去优化就行了,只不过相乘得出来的值太小了,计算机算不了太小的数(丢失),所以把这个目标值去对数。

上述这个最终目标值就叫做对数似然(最大似然估计(Maximum likelihood estimation)(通过例子理解)

d4a93d7c17c25b7732cd33ed918fbaa0.png

而对数似然又是可导的,要令它最大,不断梯度上升即可。

最后,理论讲完了,小试牛刀:

把fx选为高斯核模型(不懂核模型的戳这:核模型(核密度估计) - ZHOUJIAN_TANK的博客 - CSDN博客,即

91f7980b1dfc50a2412fc97bcb0206af.png

784b4edb4e06a89d12783ef5304fcb82.png

可以开始打代码了:

0d31517e9711fb9e895ff00034498f14.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值