自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 kaldi 源码阅读-transition-model

transition-model这个类定义在./src/hmm/transition-model.h中。先介绍一下相关的概念: 每一个phone会有一个HMM topology,它会包含若干个hmmstate。 每一个hmmstate上会有一个相关的pdf_class.这个pdf_class 在经过决策树聚类后,会被一个pdf_id代替。kaldi先定义了一个transition state=(

2017-02-28 17:31:07 4992

原创 Kaldi 源码阅读--hmm-topology

Kaldi 源码阅读–HMM关于kaldi源码的阅读已经计划很久,今日从HMM开始: 切入点是hmm的topo文件: <TopologyEntry> <ForPhones> 1 2 3 4 5 6 7 8 </ForPhones> <State> 0 <PdfClass> 0 <Transition> 0 0.5 <Transition> 1 0.5 </State> <State>

2017-02-28 17:06:30 1739

转载 机器之心对俞栋的采访

转http://sanwen8.cn/p/5c32E5V.html机器之心:从您和邓力老师的那本书《Automatic Speech Recognition: A Deep Learning Approach》出版到现在,您认为期间深度学习有了什么新的研究成果? 哪些研究成果您认为是很重大的?俞栋:我们写这本书的时候,LSTM 这样的模型才刚刚开始成功应用于语音识别。当时大家对其中的很多

2016-11-03 19:04:59 666

原创 kaldi中sge集群的使用

kaldi训练的并行化需要配置cmd.sh 如果是local machine,只需要设置 export train_cmd=”utils/run.pl” export decode_cmd=”utils/run.pl” export mkgraph_cmd=”utils/run.pl” export cuda_cmd=”utils/run.pl”如果使用sge集群,则需要制

2016-08-12 10:53:35 3442

原创 Max-out network--p norm

在kaldi的nnet2中,run_4d.sh当中使用了p-norm的DNN 这是povey的团队在IMPROVING DEEP NEURAL NETWORK ACOUSTIC MODELS USING GENERALIZEDMAXOUT NETWORKS中提出的一个方法。 该论文基于max-out提出了两种近似的max-out方法. 一个是 log(∑iexp(xi))log(\sum

2016-08-10 18:51:17 919

原创 kaldi 中lattice操作的几个工具

latgen-faster-mapped:  生成lattice lattice-scale:Apply scaling to lattice weightslattice-add-penalty: Add word insertion penalty to the latticelattice-best-path: Generate 1-best path through l

2016-08-10 16:54:58 3521

原创 perl 的初次接触

以前做文本的处理主要是使用python。但kaldi中使用perl比较多,所以也有必要了解一些。先从接触run.pl 开始吧run.pl 是kaldi中进行本地并行处理的脚本。使用方法:run.pl log-file command-line arguments...主要功能是解析参数,将command-line arguments...并行提交。实现上也比较简

2016-08-04 17:03:37 375

原创 异常声音检测之kaldi DNN 训练

#Step 1. Pre-train DBNsteps/nnet/pretrain_dbn.sh --cmvn-opts "--norm-means=true --norm-vars=true" // 均值方差归一化--delta-opts "--delta-order=2"// 差分特征--splice 5--nn_depth 3 // 隐含层的个数--hid-dim

2016-08-02 11:47:18 4771 2

转载 LibSVM学习(六)——easy.py和grid.py的使用(转)

其中,常用到的是easy.py和grid.py两个文件。其实,网上也有相应的说明,但很不系统,下面结合本人的经验,对使用方法做个说明。      这两个文件都要用python(可以在http://www.python.org上下载到,需要安装)和绘图工具gnuplot(可以在ftp://ftp.gnuplot.info/pub/gnuplot/上下载,不需要安装)。假设python安装在d:\

2012-01-09 16:47:43 867

原创 Bishop的一篇文章

基于对Bishop那本书的崇拜,去此牛人的主页瞻仰了一下,下了几篇文章一篇是A New Framework for Machine Learning。其主要内容可以用introduction里的一句话来概括:The new framework for machine learning is built upon three key ideas: (i)  the adoptio

2011-11-16 16:04:53 486

转载 转载自demonstrate 的 blog

这里搜集了一些常见的和 machine learning 相关的网站,按照 topic 来分。Gaussian Processeshttp://www.gaussianprocess.org 包括相关的书籍(有 Carl Edward Rasmussen 的书),相关的程序以及分类的 paper 列表。这也是由 Carl 自己维护的,他应该是将 GP 引入 machine

2011-11-11 18:07:38 408

转载 http://www1.bbsland.com/education/messages/236421.html

谈谈机器学习(Machine Learning)大家 (full version) 送交者: HiT, 2005年8月23日08:58:07 于 [教育与学术]http://www.bbsland.com     闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,并且仅局限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅

2011-11-11 17:12:37 2540

原创 toipc model

最近一直在看topic model 的东西,希望在音频检索中有所改进,在学习LDA中,遇到了graph model 以及variational inference的内容,翻看了bishop的machine learning and pattern recognition,在那本书中,graph model 和variational inference 分别是作为一章来讲的,阅读中深感自己的功力太浅

2011-11-11 14:38:14 673

转载 LDA -Gibbs抽样

LDA的训练有两种,一个是variational inference,一个是Gibbs抽样。Dirichlet先验,反映到Gibbs抽样方式的训练过程上,可以认为是给隐含主题和词的同现计数加上一个简单的Laplacian平滑(Laplacian平滑就是把所有值都加上一个比较小的数字然后再重新归一化)。而GibbsSampling有一个问题,就是每次采样都需要更新全局信息,基本没有机会做真正意义

2011-11-11 14:31:07 2207

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除