生成模型 VS 判别模型 (含义、区别、对应经典算法)

本文探讨了生成模型与判别模型的区别与联系,详细介绍了包括朴素贝叶斯、混合高斯模型、隐马尔可夫模型在内的生成模型,以及感知机、k近邻法、决策树等判别模型,并讨论了它们的应用场景与优缺点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

从概率分布的角度考虑,对于一堆样本数据,每个均有特征Xi对应分类标记yi。

生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后求条件概率分布。能够学习到数据生成的机制。

判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。

数据要求:生成模型需要的数据量比较大,能够较好地估计概率密度;而判别模型对数据样本量的要求没有那么多。


两者的优缺点如下图,摘自知乎



生成模型:以统计学和Bayes作为理论基础

1、朴素贝叶斯:

通过学习先验概率分布和条件概率分布,得到联合概率分布,然后对应分类时的后验概率为:



使用极大似然估计(使用样本中的数据分布来拟合数据的实际分布概率)得到先验概率。


2、混合高斯模型:



3、隐马尔可夫模型 (HMM)

由隐藏的马尔可夫链随机生成观测序列,是生成模型。HMM是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。包含三要素:初始状态概率向量pie,状态转移概率矩阵A,观测概率矩阵B。


判别模型

1、感知机 (线性分类模型)

输入空间为,输出空间为,使用的映射函数为,其中sign为符号函数 (输入大于等于1时输出为1;否则为0)。使用的损失函数为误分类点到超平面的总距离,即:


其中M为所有误分类点的集合,||w||可以不考虑。可以使用随机梯度下降得到最后的分类超平面。


2、k近邻法

基于已知样本,对未知样本进行预测时,找到对应的K个最近邻,通过多数表决进行预测。没有显式的学习过程。


3、决策树

决策树在每个单元定义一个类的概率分布,形成一个条件概率分布。决策树中递归地选择最优特征,所谓最优特征即分类效果最好的特征,算法中使用信息增益 (information gain)来衡量,对应公式为:


其中D为训练集,A为待测试的特征,H(D)为熵 (经验熵),H(D|A)为条件熵,两者的计算为


但是以信息增益为划分,存在偏向于选择取值较多的特征,因此使用信息增益比来校正,


其中n为特征A的取值个数。


4、逻辑斯蒂回归模型

使用条件概率分布表示,


可以使用极大似然估计法估计模型参数,对优化目标使用梯度下降法或者拟牛顿法。


5、最大熵模型

原理:概率模型中,熵最大的模型是最好的模型,可以使用拉格朗日函数求解对偶问题解决。


6、支持向量机 (SVM)

SVM分为线性可分支持向量机 (硬间隔最大化)、线性支持向量机 (软间隔最大化)、非线性支持向量机 (核函数)三种。

目的是最大化间隔,这是和感知机最大的区别。


7、boosting方法 (AdaBoost等)

通过改变训练样本的权重,训练多个分类器,将分类器进行线性组合,提升分类性能。AdaBoost采用加权多数表决的方法。


8、条件随机场 (conditional random field, CRF)

给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型,其特点是假设输出随机变量构成马尔可夫随机场。可应用于标注问题。


9、CNN

训练过程中,每一个中间层都有其功能,但其具体的功能无法知道。





### CLIP模型与GPT模型的区别 CLIP模型是一种多模态神经网络架构,旨在通过大量图像及其对应的文本描述来学习联合嵌入空间,在这个空间里可以比较不同模式的数据[^1]。相比之下,GPT(Generative Pre-trained Transformer)系列模型专注于自然语言处理任务,基于自回归变换器结构,能够根据给定前缀预测后续单词序列。 #### 多模态对比单模态能力 - **CLIP**:具备理解图片并关联文字的能力,适用于跨模态检索等场景。 - **GPT**:主要针对纯文本输入输出的任务优化,如对话生成、文章创作等。 #### 训练目标差异 - **CLIP**:采用对比损失函数训练,目的是使配对好的图文表示更接近而非直接生成新样本。 - **GPT**:利用最大似然估计方法指导参数调整,侧重于最大化下一个词被正确猜中的概率分布。 --- ### 生成式模型与判别式模型的不同之处 在机器学习领域内,依据建模方式可将算法分为两大类——生成式模型判别式模型: #### 定义上的区分 - **生成式模型**:试图捕捉数据本身的概率分布规律P(x,y),即尝试模拟整个特征向量X与标签Y之间的关系;这允许重建原始输入或创造新的实例。 - **判别式模型**:聚焦于决策边界的确立,仅需关注条件概率P(y|x),也就是已知特定属性组合下属于各类别的可能性大小即可完成分类工作而不必关心整体分布特性。 #### 应用范围举例说明 - 对于**生成对抗网络GANs**(一种典型的生成式框架), 可用于合成逼真的人脸照片或是艺术风格迁移; - 而像支持向量机SVM这样的经典线性/非线性分类器则代表了判别式的思路,广泛应用于垃圾邮件过滤等领域。 ```python import torch.nn as nn class GenerativeModel(nn.Module): def __init__(self, input_size, hidden_layers, output_size): super(GenerativeModel, self).__init__() layers = [] sizes = [input_size] + hidden_layers + [output_size] for i in range(len(sizes)-1): layers.append(nn.Linear(sizes[i], sizes[i+1])) if i != len(sizes)-2: layers.append(nn.ReLU()) self.network = nn.Sequential(*layers) def forward(self, x): return self.network(x) class DiscriminativeModel(nn.Module): def __init__(self, feature_dim, num_classes): super(DiscriminativeModel, self).__init__() self.fc = nn.Linear(feature_dim, num_classes) def forward(self, x): logits = self.fc(x) return logits ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值