机器学习(二)广义线性模型:逻辑回归与Softmax分类

本文探讨了从概率论和广义线性模型(GLM)的角度,如何从线性回归扩展到逻辑回归和Softmax分类。介绍了狭义线性模型的假设与求解,以及GLM如何适应离散输出变量。GLM包括指数概率分布、线性预测器和连接函数,其中逻辑回归使用sigmoid函数作为伯努利分布的链接函数,而Softmax分类对应于多项分布。三种模型参数的求解都可通过极大似然法实现。
摘要由CSDN通过智能技术生成

本文主要从概率论及广义线性模型的角度来谈线性回归,逻辑分类,Softmax分类三种常用学习方法的来源,基本假设及适用场景。

一.狭义线性模型及求解

狭义线性模型针对典型的回归问题
问题描述:给定一组训练样本 xi,yi,i(1,M) ,其中 xi 为N维列向量, yi 为实数,M为训练样本个数。要求对于新输入的 x ,预测出合理的 y
模型假设
(1)训练样本的观测误差 ϵi 符合正太分布,即 yi=yreali+ϵi ,其中 ϵiN(0,σ2) ,且所有 ϵ 独立同分布。该假设的另一含义是输出值 yi 满足正态分布,即 yiN(yreali,σ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值