逻辑回归>>>>>最大似然>>>>>最大后验概率

本文介绍了逻辑回归和线性回归的区别,并深入探讨了最大似然估计与最大后验概率的概念。逻辑回归用于二分类问题,通过sigmoid函数将线性输入映射到[0,1]区间表示概率。最大似然估计是确定模型参数的一种方法,而最大后验概率在贝叶斯框架下考虑了参数的先验分布。文章解释了两者在优化损失函数上的差异,以及它们在机器学习中的应用。" 104569063,8370839,Unicode代理对与UTF-16编码解析,"['Unicode', '编码理论', '前端开发', '后端开发']
摘要由CSDN通过智能技术生成

逻辑回归

emmmm…先来首音乐
Album Soon

线性回归

  在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariate linear regression),线性回归是机器学习中最简单的模型了。

  线性回归的定义这样:对于一个样本 x i x_i xi,它的输出值是其特征值的线性组合(这个是假设前提)。那么对数据进行建模得到的模型如下:
f ( x i ) = ∑ m = 1 p w m x i m + w 0 f(x_i)= \sum_{m=1}^{p}w_mx_{im}+w_0 f(xi)=m=1pwmxim+w0
通过对抽样得到的数据集进行训练,使得目标函数和真是的函数接近(拟合方程),一般采用的是最小二乘法。(由很多的方法可以用来求解最优解的参数。。。。这是另外的问题。。。)

逻辑回归

  逻辑回归是一种非线性的回归函数,它和线性回归一样,是机器学习中最常用的算法,线性回归主要用于预测(建模预测),二逻辑回归主要用与二分类,两者都是有监督的机器学习。(其实分类也是预测的一种特殊的例子)。

  逻辑回归给出的是属于一个类的概率(0-1),通过一个非线性函数,将输入映射到[0,1]上, p = f ϕ ( x ) = θ T x p=f_{\phi}(x)=\theta^Tx p=fϕ(x)=θTx,这样通过该模型就可以进行分类。一般采用的 l o g i s t i c logistic logistic函数是 s i g m o d sigmod sigmod函数: ϕ ( z ) = 1 1 + e − z \phi(z)=\frac{1}{1+e^{-z}} ϕ(z)=1+ez1。通过该函数,将输出数值映射成概率,完成 P ( Y ∣ X ) P(Y|X) P(YX)的作用。
Snipaste_2019-06-13_15-25-01.png

  目标函数有了之后,如何构建损失函数来优化该模型?采用 MSE的方式,损失函数如下:
J ( w ) = ∑ i 1 2 ( ϕ ( z ( i ) ) − y ( i ) ) 2 J(w)=\sum_{i}\frac{1}{2}(\phi(z^{(i)})-y^{(i)})^2 J(w)=i21<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值