机器学习方法
文章平均质量分 69
机器学习方法
F_D_Z
这个作者很懒,什么都没留下…
展开
-
【损失函数】交叉熵作为损失函数的理论依据
交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布之间的差异。在信息论中,交叉熵描述了用非真实分布q来表示来自真实分布p的平均编码长度所需的比特数。如果两个分布完全相同,则交叉熵达到最小值(即0),表示编码是完美的。反之,如果两个分布差异较大,则交叉熵会增大,表示编码效率降低。在深度学习中,交叉熵被用作一种损失函数,来衡量模型预测的概率分布与真实概率分布之间的差异。这种差异越小,说明模型的预测越准确,损失也就越小。原创 2024-09-24 16:49:08 · 841 阅读 · 0 评论 -
【损失函数】KL散度与交叉熵理解
变分自编码器等模型中会引入Kullback-Leibler散度作为损失函数。原创 2024-09-23 17:32:05 · 1900 阅读 · 0 评论 -
详解|机器学习-感知机学习算法(Perceptron)
机器学习详解-感知机学习算法,#感知机#感知机模型#感知机学习算法#机器学习#详解原创 2023-09-16 15:26:26 · 1074 阅读 · 1 评论 -
【EM算法】三硬币模型
三硬币模型是EM算法运用的一个经典例子EM算法:1.选择初值2.E步求期望3.M步求极大4.迭代至收敛。原创 2024-04-15 16:42:53 · 624 阅读 · 0 评论 -
【EM算法】算法及注解
EM算法又称期望极大算法,是一种迭代算法,每次迭代由两步组成:E步,求期望(expectation);M步,求极大(maximization)。原创 2024-04-15 15:57:01 · 267 阅读 · 0 评论 -
【k近邻】Kd树构造与最近邻搜索示例
(4)如此递归,最后得到如上图所示的特征空间划分和如下图所示的。的区域与圆不相交,不可能有最近邻点,故继续返回上一级父结点。树可以省去对大部分数据点的搜索,从而减少搜索的计算量。将空间分为左、右两个子矩形(子结点);该区域在圆内的实例点有点。维空间中的数据进行快速检索的数据结构。维空间划分中的一个超矩形区域,利用。,使用kd树的最近邻搜索算法可以求得。维空间的一个划分,其每个结点对应于。例: 给定一个二维空间的数据集,(图中的右下区域), 以点。更近,成为新的最近邻近似;的区域内搜索最近邻,结点。原创 2024-02-22 18:10:30 · 608 阅读 · 0 评论 -
【k近邻】Kd树的构造与最近邻搜索算法
Kd树是一种对K(与k近邻的k意义不同)维空间中的实例点进行存储以便对其进行快速检索的树形数据结构。Kd树是一种二叉树,表示对K维空间的一个划分(partition)。构造Kd树相当于不断地用垂直于坐标轴的超平面将K维空间切分,构成一 系列的K维超矩形区域。Kd树的每个结点对应于一个k维超矩形区域。原创 2024-02-22 16:47:31 · 852 阅读 · 0 评论 -
【k近邻】 K-Nearest Neighbors算法k值的选择
(K-Nearest Neighbors,简称KNN)是一种常用的监督学习算法,可以用于分类和回归问题。在OpenCV中,KNN算法的函数为`cv.ml.KNearest_create()。原创 2024-02-21 18:34:59 · 537 阅读 · 0 评论 -
【k近邻】 K-Nearest Neighbors算法距离度量选择与数据维度归一化
(K-Nearest Neighbors,简称KNN)是一种常用的监督学习算法,可以用于分类和回归问题。在OpenCV中,KNN算法的函数为`cv.ml.KNearest_create()。原创 2024-02-20 20:32:18 · 616 阅读 · 0 评论 -
【k近邻】 K-Nearest Neighbors算法原理及流程
(K-Nearest Neighbors,简称KNN)是一种常用的监督学习算法,可以用于分类和回归问题。在OpenCV中,KNN算法的函数为`cv.ml.KNearest_create()。原创 2024-02-20 20:07:30 · 461 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习算法知识点汇总
设输入空间(特征空间),输出空间。输入表示实例的特征向量,对应于输入空间的点,输出表示实例的类别,由输入空间到输出空间的函数称为。原创 2024-02-19 14:15:00 · 3373 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习算法例题及详解
感知机( perceptron )是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 和-1二值。感知机对应输入空间(特征空间)中将实例划分为正负两类的分离超平面,是一种判别模型。感知机是神经网络与支持向量机的基础感知机学习旨在求出将训练数据进行线性划分的分离超平面。感知机学习思路:1.导入基于误分类的损失函数2.利用梯度下降法对损失函数进行极小化3.代入参数得到感知机模型。感知机学习算法分类:原始形式、对偶形式。原创 2024-02-19 11:00:00 · 2154 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习算法的收敛性
感知机( perceptron )是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 和-1二值。感知机对应输入空间(特征空间)中将实例划分为正负两类的分离超平面,是一种判别模型。感知机是神经网络与支持向量机的基础。感知机学习旨在求出将训练数据进行线性划分的分离超平面。感知机学习思路:1.导入基于误分类的损失函数2.利用梯度下降法对损失函数进行极小化3.代入参数得到感知机模型。感知机学习算法分类:原始形式、对偶形式。原创 2024-02-18 12:21:12 · 475 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习策略
感知机( perceptron )是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 和-1二值。感知机对应输入空间(特征空间)中将实例划分为正负两类的分离超平面,是一种判别模型。感知机是神经网络与支持向量机的基础感知机学习旨在求出将训练数据进行线性划分的分离超平面。原创 2024-02-17 17:44:02 · 602 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习算法的对偶形式
感知机( perceptron )是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 和-1二值。感知机对应输入空间(特征空间)中将实例划分为正负两类的分离超平面,是一种判别模型。感知机是神经网络与支持向量机的基础感知机学习旨在求出将训练数据进行线性划分的分离超平面。感知机学习思路:1.导入基于误分类的损失函数2.利用梯度下降法对损失函数进行极小化3.代入参数得到感知机模型。感知机学习算法分类:原始形式、对偶形式。原创 2024-02-18 11:00:00 · 648 阅读 · 0 评论 -
【感知机】感知机(perceptron)模型与几何解释
设输入空间(特征空间),输出空间。输入表示实例的特征向量,对应于输入空间的点,输出表示实例的类别,由输入空间到输出空间的函数称为。原创 2024-02-17 17:41:34 · 427 阅读 · 0 评论 -
【感知机】感知机(perceptron)学习算法的原始形式
感知机( perceptron )是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 和-1二值。感知机对应输入空间(特征空间)中将实例划分为正负两类的分离超平面,是一种判别模型。感知机是神经网络与支持向量机的基础感知机学习旨在求出将训练数据进行线性划分的分离超平面。感知机学习思路:1.导入基于误分类的损失函数2.利用梯度下降法对损失函数进行极小化3.代入参数得到感知机模型。感知机学习算法分类:原始形式、对偶形式。原创 2024-01-03 16:22:28 · 504 阅读 · 0 评论 -
【隐马尔可夫模型】隐马尔可夫模型的观测序列概率计算算法及例题详解
隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状志的序列,再由各个状态随机生成一个观测而产生观测的序列的过程。模型本身属于生成模型,表示状态序列和观测序列的联合分布,但是状态序列是隐藏不可观测的。观测序列概率的计算需要有效的算法支撑。模型,A为状态转移概率矩阵,B为观测概率矩阵,π 为初始状态概率向量。原创 2023-12-05 14:58:17 · 812 阅读 · 0 评论 -
【隐马尔可夫模型】用前向算法计算观测序列概率P(O|λ)
【隐马尔可夫模型】用前向算法计算观测序列概率P(O|λ)原创 2023-12-04 14:27:58 · 414 阅读 · 0 评论 -
【支持向量机】SVM线性可分支持向量机学习算法——硬间隔最大化支持向量机及例题详解
支特向量机(support vector machines, SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器。包含线性可分支持向量机、 线性支持向量机、非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化学习线性分类器, 即为线性可分支持向量机,又称为硬间隔支持向量机。原创 2023-12-26 15:18:59 · 1023 阅读 · 0 评论 -
【支持向量机】SVM线性支持向量机学习算法——软间隔最大化支持向量机
支特向量机(support vector machines, SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器。包含线性可分支持向量机、 线性支持向量机、非线性支持向量机。当训练数据时,通过学习线性分类器, 即为线性支持向量机,又称为软间隔支持向量机。原创 2023-12-26 16:39:40 · 788 阅读 · 0 评论 -
【隐马尔可夫模型】用后向算法计算观测序列概率P(O|λ)
【隐马尔可夫模型】用后向算法计算观测序列概率P(O|λ原创 2023-12-05 14:53:12 · 394 阅读 · 0 评论