自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 红黑树(删除)

红黑树的性质 1)、每个节点不是红就是黑 2)、根节点是黑 3)、每个叶节点是黑 4)、如果一个节点是红,则它的2个儿子是黑 5)、对于每个节点,该节点到其子孙叶子节点的所有路径包含相同数目的黑节点。牢记红黑树的性质删除 1)找到待删节点Z的后继y,将y的值拷贝给Z,再删除y2)如果y是红色节点,那么直接删除,不会破坏任何性质。理由如下: a、树中各节点黑高度不变 b、

2016-07-30 13:18:39 479 2

原创 红黑树(插入)

一颗高度为h的二叉查找树的操作时间复杂度都为O(h),如果二叉树高度较高时(不平衡)时间复杂度就不是很好。红黑树是许多平衡查找树中一种,它能保证最坏情况下,基本的动态集合操作为O(logn) 1. 红黑树的性质 1)、每个节点不是红就是黑 2)、根节点是黑 3)、每个叶节点是黑 4)、如果一个节点是红,则它

2016-07-29 22:09:03 444

原创 二叉查找树(理论及实现)

二叉查找树的定义 二叉查找树是按二叉树结构来组织的,即可按照二叉树的数据结构来构造。即每个节点都包含域left,right和key。 设x是二叉查找树的一个节点。如果y是x的左子树的一个结点,则key[y]<=key[x]。如果y是x的右子树的一个节点,则key[y]>=key[x]。如: 二叉查找树的遍历 中序遍历结果是有序,结果为3,4,5,6,7二叉查找树的查询 1、按k

2016-07-25 15:04:12 431

原创 最大熵模型

一、最大熵模型 1、模型 根据最大熵定义,我们可以将最大熵模型的学习看成约束最优化问题 给定训练数据T=(x1,y1),.....,(xn,yn)T = {(x1,y1),.....,(xn,yn)},以及特征函数(就是一个个特征,不要想得太复杂)fi(x,y)f_i(x,y)。 特征函数定义f(x,y) f(x,y)={1   x,y不满足某事实。比如训练数据中出现x:sunny,y:b

2016-07-23 14:59:17 521

原创 Java List排序

1. List排序是我们经常用到的。2. 2种方法 collections.sort(List<T> list) //对list进行升序排列. 列表中所有的元素必须执行了Comparable接口 ,即列表中所有的元素都是可以相互 比较的(e1.compareTo(e2)。util实现的排序方法是稳定排序 collections.sort(List<T> list, Com

2016-07-20 11:02:06 722

原创 TreeSet自定义排序

1. 介绍TreeSet是SortedSet接口的一种实现类。在插入元素时,会按照默认的排序方法或者自定义的排序方法进行排序。2. 构造方法TreeSet()//构造一个新的空 set,该 set 根据其元素的自然顺序进行排序。TreeSet(Collection<? extends E> c)//构造一个包含指定 collection 元素的新 TreeSet,它按照其元素的自然顺序进行

2016-07-19 23:18:18 452

原创 HMM(参数训练无监督方法EM)

隐马尔可夫事实上是一个含有隐变量的概率模型 P(O|λ)=∑IP(O,I|λ)P(I|λ)P(O|\lambda) = \sum_{I}P(O,I|\lambda)P(I|\lambda) 它的训练可以用EM算法(上文已讲) 1、首先确定完全数据的对数似然函数,即p(O,I|λ)p(O,I|\lambda) 2、E-step:完全数据的期望,即Q函数Q(λ,λ¯)Q(\lambda,\ove

2016-07-07 11:02:54 4691 2

原创 float 保留多位小数

3种方法通用方法(不能保证进位)float f =0.3013f;f = (float) (((int)(f*1000))*1.0/1000);System.out.println(f);//0.301 2. float f =0.3013f;DecimalFormat decimalFormat=new DecimalFormat("0.000");System.out.print

2016-07-04 10:10:21 1216

原创 EM算法简单介绍

EM背景介绍 1.概率模型有事既含有观测变量,又含有隐变量。比如HMM中的隐状态。 如果概率模型的变量是观测变量,那么给定训练数据,可以直接用最大似然估计或者最大后验估计或者贝叶斯估计来求得参数模拟数据的分布,当然也可以用非参估计(比较复杂)。但是,当模型含有隐变量,就不能简单的用这些估计方法。EM算法就是含有隐变量的概率模型参数的极大似然估计方法。EM过程 1.EM算法是一种迭代算法。E

2016-07-02 22:56:43 1498

原创 HMM(参数训练一有监督训练)

上文已经讲述的HMM的第一个问题,如何用前向后向算法求解观测序列的概率。本文讲述如何训练模型一、HMM参数的训练有2种方法,一种是有监督学习,另一种是无监督学习。其中有监督学习很简单,无监督理解起来稍微困难。已知模型参数λ=(αNN,βNM,πN)\lambda = (\alpha_{NN},\beta_{NM},\pi_N)- 有监督学习直接利用计数的方式来求得模型参数 - 假设已经给出训练数

2016-07-02 20:04:58 5909

原创 HMM(利用前向后向求概率)

上文讲到用直接法求概率复杂度很大,本文讲述利用前向后向算法求概率。即给定模型参数λ,以及观测序列,求条件概率P(O|λ)P(O|λ)前向算法(一定要记住前向概率定义)前向概率。给定模型参数λ,定义t时刻部分观测序列为o1,o2,...,oto_1,o_2,...,o_t,并且状态为qiq_i的概率为前向概率。记为αt(i)=P(o1,o2,..,ot and it=qi|λ)\alpha_t(i)

2016-07-01 16:55:06 2016 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除