机器学习:逻辑回归原理

之前的几篇博文,我们接触了不少带“回归”二字的算法,回归树、线性回归、岭回归,无一例外都是区别于分类算法,用来处理和预测连续型标签的算法。然而,逻辑回归,是一种名为“回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法。要理解逻辑回归从何而来,要先从线性回归开始。线性回归是机器学习中最简单的回归算法,对任意样本 i i i,它写作一个几乎人人熟悉的方程:
z i = ω 0 + ω 1 x i 1 + ω 2 x i 2 + . . . + ω n x i n z_i=\omega_0+\omega_1x_{i1}+\omega_2x_{i2}+...+\omega_nx_{in} zi=ω0+ω1xi1+ω2xi2+...+ωnxin
ω被统称为模型的参数,其中ω0被称为截距(intercept),ω1~ ωn被称为系数(coefficient),这个表达式,其实就和我们小学时就无比熟悉的 y = a x + b y=ax+b y=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值