- 博客(17)
- 收藏
- 关注
转载 Pytorch里的CrossEntropyLoss详解
首先要知道上面提到的这些函数一部分是来自于torch.nn,而另一部分则来自于torch.nn.functional(常缩写为F)。二者函数的区别可参见知乎:torch.nn和funtional函数区别是什么?下面是对与cross entropy有关的函数做的总结:torch.nn torch.nn.functional (F) CrossEntropyLoss cross_entropy LogSoftmax log_softmax NLLLoss nll_l.
2021-09-17 11:43:47 4211
转载 信息熵及其相关概念
文章目录1. 熵的定义是怎么来的? 1.1 信息熵的三个性质 1.2 对信息熵三条性质的理解 1.3 回看信息熵定义 2. 伯努利分布熵的计算[3] 3. 两随机变量系统中熵的相关概念[4] 3.1 互信息 3.2 联合熵 3.3 条件熵 3.4 互信息、联合熵、条件熵之间的关系 4. 两分布系统中熵的相关概念[5] 4.1 交叉熵 4.2 相对熵 4.3 相对熵与交叉熵的关系 参考(https://blog.csdn.net/am29
2020-10-28 14:47:16 1822
转载 torch.nn.Embedding
转自:https://blog.csdn.net/foneone/article/details/103881687torch.nn.Embedding模块可以看做一个字典,字典中每个索引对应一个词和词的embedding形式。利用这个模块,可以给词做embedding的初始化操作。模块中主要参数:num_embeddings :字典中词的个数embedding_dim:embedding的维度padding_idx(索引指定填充):如果给定,则遇到padding_idx中的索引,则..
2020-10-23 10:18:48 217
转载 torch.nn.Conv2d()函数详解
转自:https://blog.csdn.net/m0_37586991/article/details/87855342import torchx = torch.randn(2,1,7,3)conv = torch.nn.Conv2d(1,8,(2,3))res = conv(x)print(res.shape) # shape = (2, 8, 6, 1)输入:x[batch_size,channels,height_1,width_1]batch_size 一个bat
2020-10-22 10:56:41 1088
转载 编辑距离及编辑距离算法
编辑距离及编辑距离算法编辑距离概念描述问题解析c++代码转自:https://www.cnblogs.com/Katerina/p/11355153.html编辑距离概念描述编辑距离,又称Levenshtein距离,是指两个字串之间,由一个转成另一个所需的最少编辑操作次数。许可的编辑操作包括:1、将一个字符串替换成另一个字符,2、插入一个字符,3、删除一个字符。例如将kitten转成sitting:1.sitten (k->s)2.sittin (e->i)3.sitting
2020-08-07 11:04:59 528
转载 kaldi mmi/bmmi/mpe/smbr训练及源码
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/xmdxcsj/article/details/54695512训练流程make_denlats.sh产生1gram语言模型对应的解码网络nnet-latgen-faster产生denominator lattice,作为smb...
2019-08-22 15:42:21 1033
转载 声学模型学习笔记(五) SDT(MMI/BMMI/MPE/sMBR)
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/xmdxcsj/article/details/52760111DNN训练使用的CE准则是基于每一帧进行分类的优化,最小化帧错误率,但是实际上语音识别是一个序列分类的问题,更关心的是序列的准确性。所以引入SDT(sequence-disc...
2019-08-22 15:23:09 2252
转载 kaldi中的深度神经网络
本文转自http://blog.csdn.net/wbgxx333/article/details/45641341只为加强自己的学习。综述这个文档主要来说kaldi中Karel Vesely部分的深度神经网络代码。如果想了解kaldi的全部深度神经网络代码,请Deep Neural Networks in Kaldi, 和Dan的版本, 请看Dan’s DNN imp
2017-08-14 15:30:20 2793
翻译 Kaldi中的nnet3之数据类型
简介本章涵盖了最新的nnet3。为了了解Kaldi里所有的DNN,例如例如karel的版本,参考 Deep Neural Networks in Kaldi。nnet3的创建是为了以更自然的方式不需要实际编码就支持更多通用种类的网络,而不仅仅是反馈网络(例如RNN和LSTM)。和nnet2一样支持多机器多GPU并行(利用基于naturalgradient-stabilized
2017-08-08 16:22:44 2461
翻译 高准确率声学模型基于决策树的状态聚类
本文是对《Tree-Based State Tying For High Accuracy Acoustic Modelling》S.J.Young 的部分翻译,主要目的是为了促进个人对HMM状态绑定算法的理解。如有不妥或者有误的地方,欢迎指出,谢谢!Abstract本文介绍了一种使用因素决策树创建状态绑定连续语音识别系统的方法,这种基于树的聚类方法和早期的数据驱动的方法识别性能相
2017-07-07 16:31:09 2700
原创 Kaldi 解码
gmm-align-compiled功能:给定基线GMM模型,对每一句话,根据这句话的特征和这句话的fst,生成对应的对齐状态序列。用法:² Usage: gmm-align-compiled[options] model-in graphs-rspecifier feature-rspecifier alignments-wspecifier[scores-wspecifier
2017-06-19 18:33:55 6707
转载 【Boost】boost::noncopyable介绍
转自: http://blog.csdn.net/huang_xw/article/details/8248960boost::noncopyable 比较简单,主要用于单例的情况。通常情况下,要写一个单例类就要在类的声明把它们的构造函数、赋值函数、析构函数,复制构造函数隐藏到private或者protected之中,每个类都这么做麻烦。有noncopyable类,只要让单
2016-07-27 09:51:51 767
转载 Boost::Lexical_Cast的使用
1、字符串到数值类型的转换2、数值到字符串的转换3、异常处理情况4、boost::lexical_cast 的原型: template Target lexical_cast(Source arg); lexical_cast是依赖于字符串流std::stringstream的,其原理也是相当的简单: 把源类型 (Source) 读入到字符流中,再写到目标类型 (T
2016-07-26 15:59:08 474
原创 KenLM代码学习之lmplz_main.cc
#include "lm/builder/output.hh"#include "lm/builder/pipeline.hh"#include "lm/common/size_option.hh"#include "lm/lm_exception.hh"#include "util/file.hh"#include "util/file_piece.hh"#include
2016-07-26 11:13:49 1176
转载 [boost------ref的使用(Boost程序库完全开发指南)读书笔记][1]
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2016-07-26 10:56:28 450
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人