机器学习
文章平均质量分 85
机器学习主流算法的一般性原理介绍
ashome123
这个作者很懒,什么都没留下…
展开
-
LDA主题模型 —— 变分推断EM算法推导
文章目录本文目的LDA模型的简单回顾LDA求解 —— 变分推断EM算法EM算法本文目的LDA,即Latent Dirichlet Allocation,是一个非常重要的文档主题模型,在众多领域均有着广泛的运用。本文聚焦于LDA模型的变分推断求解方法的数学推导,假设读者已经了解过LDA的基本原理。LDA模型的简单回顾首先对LDA模型做一个简单的回顾:假设数据集DDD中有MMM篇文档,其中第ddd篇文档有NdN_dNd个单词,且数据集DDD中一共涉及VVV种单词,KKK个主题。概率图中的个符号定原创 2021-07-29 12:46:05 · 1484 阅读 · 0 评论 -
EM算法与变分推断 —— 数学推导
EM算法与变分推断文章目录EM算法与变分推断EM算法介绍EM算法推导 1二、使用步骤1.引入库2.读入数据总结EM算法介绍对于概率图模型中包含有隐变量的情况,可以使用EM算法进行参数估计。隐变量是指不可观测的变量,但其参与到了样本的生成过程。例如在混合高斯模型中,样本xxx的生成过程为首先确定其所属的类别zzz,之后根据其类别选择相应的高斯分布N(μz,σk)\mathcal{N}(\mu_z,\sigma_k)N(μz,σk),生成样本xxx。在该生成过程中,样本所属的类别zzz即为一个隐变原创 2021-07-22 13:12:56 · 1546 阅读 · 0 评论 -
einsum方法详解(爱因斯坦求和)
einsum方法详解(爱因斯坦求和)einsum是pytorch、numpy中一个十分优雅的方法,如果利用得当,可完全代替所有其他的矩阵计算方法,不过这需要一定的学习成本。本文旨在详细解读einsum方法的原理,并给出一些基本示例。一、爱因斯坦求和爱因斯坦求和是一种对求和公式简洁高效的记法,其原则是当变量下标重复出现时,即可省略繁琐的求和符号。比如求和公式:∑i=1naibi=a1b1+a2b2+...+anbn \begin{aligned} \sum_{i=1}^na_原创 2021-05-21 10:49:10 · 14787 阅读 · 4 评论 -
机器学习 —— 3 聚类(K均值和高斯混合模型)
文章目录前言一、K均值算法(K-means)1.模型定义2.模型算法二、使用步骤1.引入库2.读入数据总结前言 聚类是一种无监督学习方法,把相似的对象通过静态分类的方法分成不同的组别或子集合,使得同一类别或子集中的对象具有相似的属性,在数据挖掘、模式识别、图像分析、数据分 析中具有广泛的应用。一、K均值算法(K-means)目标:将所有数据样本聚类成KKK个类别。即找到kkk个聚类中心μ1,μ2,...,μK\mu_1,\mu_2,...,\mu_Kμ1,μ2,...,μK,则每个样本原创 2021-01-22 14:46:35 · 960 阅读 · 0 评论 -
机器学习 —— 2 线性回归
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章 Python 机器学习入门之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录一、一些简单的概率统计1.概念2.全概率公式&贝叶斯公式3.随机变量3.高斯分布一、一些简单的概率统计1.概念概率:对随机事件发生可能性大小的度量条件概率:事件B已发生的条件下,事件A发生的概率,记作P(A∣B)P(A \mid B)P(A∣B)联合概率:A原创 2021-01-21 14:25:44 · 244 阅读 · 0 评论 -
机器学习 —— 1 绪论
机器学习系列 —— 1 绪论提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章 Python 机器学习入门之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录 前言 一、 二、使用步骤 1.引入库 2.读入数据 前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。..原创 2021-01-20 11:21:32 · 130 阅读 · 0 评论