之前的几篇博文,我们接触了不少带“回归”二字的算法,回归树、线性回归、岭回归,无一例外都是区别于分类算法,用来处理和预测连续型标签的算法。然而,逻辑回归,是一种名为“回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法。要理解逻辑回归从何而来,要先从线性回归开始。线性回归是机器学习中最简单的回归算法,对任意样本 i i i,它写作一个几乎人人熟悉的方程:
z i = ω 0 + ω 1 x i 1 + ω 2 x i 2 + . . . + ω n x i n z_i=\omega_0+\omega_1x_{i1}+\omega_2x_{i2}+...+\omega_nx_{in} zi=ω0+ω1xi1+ω2xi2+...+ωnxin
ω被统称为模型的参数,其中ω0被称为截距(intercept),ω1~ ωn被称为系数(coefficient),这个表达式,其实就和我们小学时就无比熟悉的 y = a x + b y=ax+b y=
机器学习:逻辑回归原理
最新推荐文章于 2024-03-30 13:14:22 发布