Deep Learning
文章平均质量分 94
bluebelfast
语音图像视频处理研究达人。
展开
-
TensorRT自定义插件(plugin)开发(详细)
tensorRT插件开发详细文档转载 2022-05-31 21:19:10 · 4082 阅读 · 1 评论 -
贝叶斯网络(belief network)
转至:http://f.dataguru.cn/forum.php?mod=viewthread&tid=508373&page=1&authorid=937251 贝叶斯方法 长久以来,人们对一件事情发生或不发生的概率,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大。而且概率虽然未知,但最起码是一个确定的值。比转载 2016-05-26 17:40:40 · 26568 阅读 · 2 评论 -
KMP算法解释
这是我看到的对KMP算法解释的比较好的博文,所以转载过来。这里希望大家对最后的前缀和后缀有所理解,其实这个算法就是匹配时每次需要从相同前缀的后面重新开始匹配。因为这样就不会漏掉不同的前缀部分的匹配,而相同部分不用再次匹配的道理。具体请看下面转载的博文:转载至http://kb.cnblogs.com/page/176818/ 字符串匹配是计算机的基本任务之一。 举转载 2015-12-22 20:51:26 · 807 阅读 · 0 评论 -
CNN 深度神经网络
转载至:http://blog.csdn.net/zouxy09/article/details/8781543/Convolutional Neural Networks卷积神经网络 卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维转载 2015-04-03 10:28:19 · 3703 阅读 · 0 评论 -
Deep Learning (深度学习) 学习总结
目前主要的研究方向集中在Deep Learning以及其在语音分离上的研究,因此开创了Deep Learning和computational auditory scene analysis(CASA)两个栏目,想和各位在这两个研究领域互相学习和交流。在Deep Learning上,我们的学习经历和过程总结在这篇文章中。原创 2013-11-28 15:13:00 · 2717 阅读 · 0 评论 -
Convolutional Neural Networks 卷积神经网络
感觉这篇总结的比较全面,就不在自己写了。请参阅:http://blog.csdn.net/zouxy09/article/details/8781543原创 2014-04-21 21:49:37 · 1357 阅读 · 0 评论 -
Windows 下 AnacondaCE 安装 Theano 0.6.0rc3 问题
AnacondaCE 安装 Theano 0.6.0rc3 时遇到WARNING (theano.configdefaults): g++ not detected 等问题的解决办法。绝对work!原创 2013-12-23 16:54:24 · 7260 阅读 · 3 评论 -
传统神经网络ANN训练算法总结
学习/训练算法分类 神经网络类型的不同,对应了不同类型的训练/学习算法。因而根据神经网络的分类,总结起来,传统神经网络的学习算法也可以主要分为以下三类: 1)前馈型神经网络学习算法-----(前馈型升级网络) 2)反馈型神经网络学习算法------(反馈型神经网络) 3)自组织神经网络学习算法------(自组织神经网络) 以下我们将通过三类典型的原创 2013-12-05 12:22:07 · 17911 阅读 · 3 评论 -
Restricted Boltzmann Machines
本文根据我们在Restricted Boltzam Machines(RBMs)上学习和理解,分析大量文献资料形成了RBMs工作和学习过程的总结。文章分别并通过举例和形式化两方面深入浅出的讲解了Restricted Boltzam Machines(RBMs)网络结构,其工作原理,建模原理和RBMs的学习过程。原创 2013-12-11 08:43:16 · 11876 阅读 · 0 评论 -
机器学习基础unsupervised 和supervised学习
1、定义引用维基百科和百度百科。监督式学习(英语:Supervised learning),是一个机器学习中的方法,可以由训练资料中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。(wikipedia)利用一组原创 2013-12-05 13:48:53 · 10255 阅读 · 0 评论 -
对比传统模式识别方法理解 Deep Learning
通过从传统的模式识别系统分析入手,理解Deep learning 到底做了什么。原创 2013-12-05 14:56:48 · 6813 阅读 · 1 评论 -
基于DBN的语音识别技术分析
1、传统GMM-HMM语音识别系统简介2、DBN用于Phone 识别3、DBN-HMM依赖型语音识别系统分析参考文献;Dahl, G., Ranzato, M., Mohamed, A., and Hinton, G. ―Phone recognition with the mean-covariance restricted Boltzmann mac原创 2013-12-10 15:44:07 · 3348 阅读 · 1 评论 -
DNN与ANN的区别
1、ANN与DNN背景传统的神经网络,也称为ANN或浅层神经网络。Deep Learning中重点研究的是深层神经网络,也称为DNN,其中D是Deep的缩写。下面是摘自网上对传统浅层ANN和DNN的描述。浅层学习是机器学习的第一次浪潮 20世纪80年代末期,用于人工神经网络的反向传播算法(也叫Back Propagation算法或者BP算法)的发明,给机原创 2013-12-05 14:14:34 · 27945 阅读 · 0 评论 -
MCMC(Markov Chain Monte Carlo) and Gibbs Sampling
1. 随机模拟随机模拟(或者统计模拟)方法有一个很酷的别名是蒙特卡罗方法(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密切相关,当时的几个大牛,包括乌拉姆、冯.诺依曼、费米、费曼、Nicholas Metropolis, 在美国洛斯阿拉莫斯国家实验室研究裂变物质的中子连锁反应的时候,开始使用统计模拟的方法,并在最早的计算机上进转载 2013-12-04 10:14:13 · 2456 阅读 · 0 评论 -
Deep Learning 训练/学习过程
以下先抛出Deep Learning的训练过程,后续在讲解各类DNN时将具体例举。1、deep learning训练过程 如果对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合(因为深度网络的神经元和参数太多了)。 2006年,hinton提出了在非监督数据上建立多层神经网络的一个有效方法转载 2013-12-05 15:13:09 · 2056 阅读 · 0 评论 -
传统神经网络ANN简介
人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。现代神经网络是一种非线性统计性数据建模工具,常用来对输入和输出间复杂的关系进行建模,或用来探原创 2013-12-03 10:37:04 · 12321 阅读 · 0 评论