![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Vic_Hao
这个作者很懒,什么都没留下…
展开
-
Latent Dirichlet Allocation (LDA)
文章目录LDA可以用来干什么?LDA模型简单引入与贝叶斯估计二项分布与多项分布共轭分布MCMC采样MCMC = Markov Chain(马尔科夫链)+ Monte Carlo(蒙特卡洛)LDA可以用来干什么?我们拿到一篇文章,然后读完就基本可以知道它是讲什么的,比如是讲“中国经济发展状况”,或者是讲“中美贸易战对两国的影响”,又或者是在讲“农村里的爱情故事”…LDA就是在做一个类似的事情:让计算机读一篇文章,然后概括出来这篇文章在讲什么内容,即这篇文章的主题是什么。所以,LDA是一个主题模型(Topi原创 2020-08-24 01:42:46 · 3146 阅读 · 0 评论 -
sklearn 学习笔记 —— Nearest Neighbors
文章目录IntroUnsupervised Nearest NeighborsNearest Neighbors ClassificationIntrosklearn 提供了 sklearn.neighbors 这个模块,这个模块提供了unsupervised and supervised neighbors-based learning methods的一些方法。Unsupervised nearest neighbors是很多其它learning methods的基础,像著名的manifold l原创 2020-05-20 16:45:41 · 3154 阅读 · 0 评论 -
clustering 聚类算法
文章目录clustering 介绍聚类的定义聚类的评价标准如何确定聚类的个数Calinski-Harabaz 分数具体方法Mean-shift(均值迁移)概述Spectral Clustering(谱聚类)概述Hierarchical Clustering(层次聚类)概述Clustering by fast search and find of density peaks工具Python聚类包Referenceclustering 介绍聚类的定义聚类与分类的不同在于,聚类所要求划分的类是未知的。也就是原创 2020-05-17 22:52:00 · 2234 阅读 · 0 评论 -
Regularization
文章目录IntroductionClassificationReferenceIntroductionIn mathematics, statistics and computer science, particularly in machine learning and inverse problems, regularization is the process of adding inf...转载 2019-12-26 02:00:01 · 164 阅读 · 0 评论 -
baseline和benchmark的区别
benchmark通俗的讲,一个算法之所以被称为benchmark,是因为它的性能已经被广泛研究,人们对它性能的表现形式、测量方法都非常熟悉,因此可以作为标准方法来衡量其他方法的好坏。这里需要区别state-of-the-art(SOTA),能够称为SOTA的算法表明其性能在当前属于最佳性能。如果一个新算法以SOTA作为benchmark,这当然是最好的了,但如果比不过SOTA,能比bench...转载 2019-03-04 17:01:36 · 1976 阅读 · 0 评论 -
softmax 详解
什么是softmaxsoftmax函数定义如下:Si=eVi∑iCeViS_i=\frac {e^{V_i}}{\sum_{i}^{C}e^{V_i}}Si=∑iCeVieViwhereViV_iVi------分类器前级输出单元的输出iii------类别索引CCC------总的类别个数softmax将多分类的输出数值转化为相对概率,更容易理解和比较。例子:一个多...转载 2019-03-04 14:04:19 · 706 阅读 · 0 评论 -
梯度下降法
场景假设梯度下降法的基本思想可以类比为一个下山的过程。假设这样一个场景:一个人被困在山上,需要从山上下来(i.e. 找到山的最低点,也就是山谷)。但此时山上的浓雾很大,导致可视度很低。因此,下山的路径就无法确定,他必须利用自己周围的信息去找到下山的路径。这个时候,他就可以利用梯度下降算法来帮助自己下山。具体来说就是,以他当前的所处的位置为基准,寻找这个位置最陡峭的地方,然后朝着山的高度下降的地方...转载 2019-03-03 23:15:13 · 11378 阅读 · 2 评论 -
Tensorflow学习笔记——概述
基本概念使用图(graphs)来表示计算任务,graphs是Tensorflow的核心在被称之为会话 (Session) 的上下文 (context) 中执行图使用tensor表示数据通过变量 (Variable) 维护状态使用feed和fetch可以为任意的操作赋值或者从中获取数据Tensorflow是一个编程系统,使用graphs来表示计算任务,graphs中的节点称之为ope...原创 2019-03-06 15:54:22 · 115 阅读 · 0 评论 -
直观理解 梯度(gradient)
梯度在机器学习中,我们通常需要对问题进行建模,然后可以得到一个成本函数(cost function),通过对这个成本函数进行最小化,我们可以得到我们所需要的参数,从而得到具体的模型。这些优化问题中,只有少部分可以得到解析解(如最小二乘法),而大部分这类优化问题只能迭代求解,而迭代求解中两种最常用的方法即梯度下降法与牛顿法。梯度概念是建立在偏导数与方向导数概念基础上的。所谓偏导数,简单来说是对于...转载 2019-03-02 19:22:07 · 110201 阅读 · 19 评论 -
MLP 多层感知机
wiki: https://en.wikipedia.org/wiki/Multilayer_perceptron原创 2019-02-28 18:50:33 · 246 阅读 · 0 评论 -
马尔可夫模型(MC, HMM, POMDP, MOMDP)
马尔可夫模型的几类子模型大家应该还记得马尔科夫链(Markov Chain),了解机器学习的也都知道隐马尔可夫模型(Hidden Markov Model,HMM)。它们具有的一个共同性质就是马尔可夫性(无后效性),也就是指系统的下个状态只与当前状态信息有关,而与更早之前的状态无关。马尔可夫决策过程(Markov Decision Process, MDP)也具有马尔可夫性,与上面不同的是MD...原创 2019-02-24 21:50:10 · 7767 阅读 · 1 评论