机器学习
文章平均质量分 93
微波遥感小白
微波遥感反演在读研究生
展开
-
集成学习简单讲解
在机器学习中,集成学习是一种通过结合多个学习器(即个体学习器)来构建更强大模型的技术。个体学习器是指基本的、弱的学习算法,而集成学习通过组合这些个体学习器的预测结果,从而获得更准确、更稳定的预测结果。个体学习器可以是同质的(即使用相同的学习算法,但在不同的训练集上训练)或者异质的(使用不同的学习算法或者在不同的特征子集上训练)。集成学习可以通过多种方式组合个体学习器的预测结果,其中最常见的方法包括投票法(Voting)、平均法(Averaging)、堆叠法(Stacking)等。原创 2024-03-06 17:21:58 · 1103 阅读 · 1 评论 -
贝叶斯决策器简单讲解
贝叶斯决策论是一种基于概率统计的决策方法,其原理是利用贝叶斯定理来计算在观察到的数据下,每个类别的后验概率,并基于这些后验概率来做出最优决策,以最小化预期损失或风险。在贝叶斯决策论中,我们假设每个样本都属于某个类别,并通过计算后验概率来确定样本最有可能属于哪个类别。:在观察到任何数据之前,我们对每个类别的概率分布的猜测。这些概率通常基于领域知识或历史数据。:给定数据样本,似然函数描述了每个类别生成该样本的可能性。似然函数通常基于统计模型或假设。:观察到数据的概率,也称为证据。原创 2024-03-05 13:36:06 · 1050 阅读 · 1 评论 -
支持向量机简单讲解
周志华老师《机器学习》学习笔记。原创 2024-03-04 13:33:25 · 877 阅读 · 1 评论 -
神经网络简单讲解
当我们谈论神经元模型时,通常是指人工神经元模型,也称为人工神经元或神经元。这是模拟生物神经元的数学模型,是构成人工神经网络的基本单元。:神经元接收来自其他神经元的输入,每个输入都有一个权重,用来调节其重要性。:输入和对应的权重相乘后求和,得到加权和。加权和表示了神经元对输入的综合响应。:加权和被送入激活函数,激活函数的作用是对加权和进行非线性变换,产生神经元的输出。常用的激活函数包括 sigmoid 函数、ReLU 函数等。:有些模型中,神经元的输出需要超过一个阈值才会被激活。原创 2024-03-03 20:02:06 · 942 阅读 · 0 评论 -
决策树简单讲解
周志华老师的《机器学习》学习笔记。原创 2024-03-03 12:19:33 · 1028 阅读 · 0 评论 -
线性模型简要讲解
对数线性回归的主要优点之一是,当因变量的取值范围很广时,对数变换可以使得因变量的分布更接近正态分布,有助于提高模型的拟合效果。具体来说,一个类别的样本数量远远大于另一个类别的样本数量,导致模型在训练和预测过程中对于少数类别的识别能力不足,容易出现预测偏差。最小二乘法的基本思想是使得残差(实际观测值与模型预测值之间的差异)的平方和最小化,从而得到最优的参数估计值。LDA与PCA(主成分分析)相比,PCA只考虑样本间的方差信息,而LDA同时考虑了样本的类别信息,因此在许多情况下,LDA能够获得更好的分类性能。原创 2024-03-02 22:09:50 · 1066 阅读 · 0 评论 -
模型评估与选择(下)
在机器学习中,比较检验是用于比较不同模型、算法或参数设置之间性能差异的一种统计分析方法。比较检验可以帮助我们确定哪种方法更适合解决特定的问题,从而指导模型选择和参数调优。:通过比较不同设置下的模型性能,可以验证模型的稳定性和一致性,即模型在不同数据集或参数下的表现是否一致。:比较检验可以帮助我们确定哪种模型或算法在给定数据集和任务下表现最好,从而选择最佳的模型或算法。:比较检验也可以用于验证某些假设或理论,例如某种算法是否在某种情况下比另一种算法更有效。原创 2024-03-02 19:51:47 · 979 阅读 · 0 评论 -
模型评估和选择(上)
周志华老师的《机器学习》笔记在机器学习中,经验误差(Empirical Error)指的是模型在训练集上的误差,即模型对训练集中样本的预测误差。通常使用损失函数来衡量经验误差,例如在分类问题中可以使用交叉熵损失函数,回归问题中可以使用均方误差损失函数。经验误差可以帮助评估模型在训练集上的拟合程度,但不能直接反映模型在未见数据上的泛化能力。过拟合(Overfitting)指的是模型在训练集上表现很好,但在测试集(或其他未见数据)上表现较差的现象。原创 2024-03-02 15:14:39 · 1121 阅读 · 0 评论 -
机器学习~绪论
在机器学习中,奥卡姆剃刀的意义是指在选择模型时,应该倾向于选择最简单的模型,以避免过度拟合训练数据。过度拟合是指模型在训练数据上表现很好,但在未见数据上表现不佳,即模型过于复杂,试图捕捉训练数据中的噪声或细节,而不是真正的模式或规律。在监督学习中,假设空间通常由参数化的函数族表示,例如线性回归模型中的所有线性函数、决策树中所有可能的决策树等。这个定理的核心思想是,不同的机器学习问题具有不同的特点和结构,适用于某个问题的算法不一定适用于另一个问题。换句话说,假设空间是模型可以学习的所有可能的函数的集合。原创 2024-02-29 21:01:56 · 1113 阅读 · 0 评论