本文部分图片来自《老饼讲解-机器学习》
逻辑回归是有监督学习还是无监督学习?逻辑回归是有监督学习!
下面我们先看逻辑回归模型是什么,再看有监督学习与无监督学习是什么
目录
一、逻辑回归模型是什么
1.1 逻辑回归的模型表达式与损失函数
逻辑回归模型的表达式为
P=sigmoid(WX+B)
逻辑回归的损失函数为:
1.2 逻辑回归的建模流程
逻辑回归模型需要使用训练数据来训练模型,并使用测试数据来评估模型的性能。在训练过程中,需要选择适合问题的模型类型,例如线性回归、逻辑回归、决策树等,并使用训练数据来调整模型的参数。训练完成后,可以使用测试数据来测试模型的性能,例如计算模型的准确率、召回率等指标。
逻辑回归的建模流程如下:
1.采集样本的输入变量和类别
2.用算法(例如梯度下降法)求一个W、B使得损失函数最小
3.将求得的W、B代入模型,就可以用来预测新的样本
可以通过下述例子了解逻辑回归的建模和相关公式的推导:
二、什么是机器学习的有监督学习与无监督学习
1.1 简述有监督学习与无监督学习
有监督学习就是样本有Y标签,根据Y来训练模型的输出,一般会有损失函数,有监督学习比较常见,例如回归模型,分类模型等等。
无监督学习就是样本没有Y标签,由于没有Y标签,所以难度要大一些,但有一些样本就是无法采集到Y标签,所以只能采用无监督学习算法。无监督学习的经典模型是聚类模型。
1.2 有监督学习
机器学习的有监督学习通常利用带有专家标注的标签的训练数据,学习一个从输入变量X到输入变量Y的函数映射。Y = f (X),训练数据通常是(n×x,y)的形式,其中n代表训练样本的大小,x和y分别是变量X和Y的样本值。
有监督学习可以分为两类:分类问题和回归问题。当输出是离散的,学习任务为分类任务,当输出为连续的,学习任务为回归任务。
在分类问题中,模型会学习如何根据输入变量X预测样本所属的类别。例如,在二元逻辑回归中,模型会学习如何根据输入变量X预测样本属于两个类别中的一个。
在回归问题中,模型会学习如何根据输入变量X预测一个实数输出。例如,线性回归模型会学习如何根据一个自变量和一个因变量之间的线性关系进行预测。
有监督学习的训练过程通常包括以下步骤:首先,选择一个适合问题的模型类型,例如线性回归、逻辑回归、决策树等;然后,使用训练数据对模型进行训练,调整模型的参数;最后,使用测试数据对模型进行测试,评估模型的性能
1.3 无监督学习
无监督学习是机器学习领域内的一种学习方式,它不需要给数据打标签,因此也被称为无监督学习。无监督学习主要依靠数据本身的模式和规律来学习和预测结果。
无监督学习的主要应用包括:
聚类:
将一组样本根据一定的准则划分到不同的组,一个比较通用的准则是组内样本的相似性要高于组间样本的相似性。常见的算法有K-means,系统聚类法等。
降维和特征提取:
无监督特征学习在无标签训练数据中挖掘有效特征或者表示。可以用来降维、数据可视化(其实也是降维,将数据降到3维以内)、监督学习的数据预处理(例如:去噪,特征提取等)。常用算法有:主成分分析(线性方法),稀疏编码,自编码器等。
概率密度估计:包括参数密度估计和非参数密度估计;参数密度估计假设数据服从某种分布,估计分布的参数;非参数密度估计不假设数据服从某种分布,通过将样本空间划分为不同的区域并估计每个区域的概率来近似数据的概率密度函数。常用方法有直方图方法,核方法,K近邻方法。
无监督学习也有三要素:模型、学习准则、优化算法。
三、结论
由上面就可以知道,逻辑回归就是有监督学习,
因为它是二分类模型,需要采集样本类别标签,再根据样本标签来建立模型,将样本一划为二。所以,逻辑回归是有监督学习的
写文不易,点赞收藏吧~!