deep learning
jinmingz
ASR SRE DeepLearning
展开
-
theano的scan函数
看了一会scan函数,感觉真的太好用了,下面我就写几个小demo来理解一下,现在为止理解的也不是很清楚,所以直接上demo.scan(fn, sequences=None, outputs_info=None, non_sequences=None, n_steps=None, truncate_grad原创 2016-05-25 15:08:26 · 950 阅读 · 0 评论 -
准确率和召回率
作者:jinming 链接:https://www.zhihu.com/question/19645541/answer/145008894 来源:知乎 著作权归作者所有,转载请联系作者获得授权。最近正好做 男女儿童的分类,举个具体的例子解释一下: 假设 儿童5w, 识别成儿童的有 4w, 识别成 other 的有1w. other 10w, 识别成other的有8w, 识别成 儿童的有原创 2017-02-07 18:58:41 · 4645 阅读 · 0 评论 -
画EER曲线,声纹确认
画EER曲线首先需要知道每个阈值点对应的错误接受率和错误拒绝率(跟计算准确率召回率,画准确率召回率曲线差不多): scores文件的格式: score target/nontarget#!coding=utf-8def read_file(filename): with open(filename, 'r') as f: lines = f.readlines()原创 2017-03-06 00:23:31 · 7287 阅读 · 0 评论 -
MLE,EM,MAP 三种算法对比和理解
reference link: http://blog.csdn.net/upon_the_yun/article/details/8915283 最大似然估计(MLP): (1) 写出似然函数 (2) 对似然函数取对数,并整理 (3) 求导数 (4) 解似然方程 假设x为独立同分布的采样,θ为模型参数, f为我们所使用的模型, 那么最大似然估计可以表示为: Sit原创 2016-09-29 01:51:23 · 19057 阅读 · 0 评论 -
relu和crelu使用
之前不了解crelu,随便将网络中的relu换成crelu, 然后调了半天的bug。 —–自己写bug,自己调bug, 死循环ing ——先看写一段代码:import tensorflow as tfimport collectionsslim = tf.contrib.slimweights_initializer = tf.contrib.layers.xavier_initializer原创 2017-08-23 17:53:18 · 3391 阅读 · 0 评论 -
openpose 问题汇总
https://github.com/CMU-Perceptual-Computing-Lab/openposeQ1:ImportError: /root/anaconda2/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.21' not found ref:http://blog.csdn.net/u010987458/article/detail原创 2017-11-16 17:53:02 · 4516 阅读 · 0 评论 -
map(macro average precision) 与 F1score
之前写过关于准确率和召回率: http://blog.csdn.net/zjm750617105/article/details/54914184map, macro average precision, 宏平均准确率:其实就是 各个类别的准确率的平均值, 每个类别的准确率计算参考上面的链接。具体例子: [[ 7 28 0 0 0 0 0 93] [ 5 28原创 2017-08-09 13:53:53 · 4837 阅读 · 2 评论 -
sklearn 的 Normalizer的L1和 L2
Normalizer 正则化,跟z-score,对数转换,指数转换 这种数据转换方式不同。 L1 norm 是指对每个样本的每一个元素都除以该样本的L1范数. L2 norm 是指对每个样本的每一个元素都除以该样本的L2范数. bag of words features need to normalize with L1 norm fisher vector features need...原创 2017-09-06 21:59:11 · 6308 阅读 · 2 评论 -
TF多层 LSTM 以及 State 之间的融合
第一是实现多层的LSTM的网络;第二是实现两个LSTM的state的concat操作, 分析 state 的结构.对于第一个问题,之前一直没有注意过, 看下面两个例子:在这里插入代码片import tensorflow as tfnum_units = [20, 20]#Unit1, OK# X = tf.random_normal(shape=[3, 5, 6], dtype=...原创 2019-02-21 18:07:25 · 1117 阅读 · 0 评论 -
最小二乘法(least squares)
都忘了,再回顾一下: 参考知乎 https://www.zhihu.com/question/20447622 该问题下面的部分回答:建议有时间的把问题下面的所有答案都过一遍,这样可以通过不同的切入点来更好的理解。最小二乘法,也叫最小平方法,在古汉语中“平方”称为“二乘”,“最小”指的是参数的估计值要保证各个观测点与估计点的距离的平方和达到最小。(记得赟哥解释过,这个方法起源于日本,就直接拿过来用原创 2016-12-06 14:28:09 · 18472 阅读 · 0 评论 -
k-means算法
有时候GMM-UBM的初始化可以采用k-means方法,k-means的原理很简单,但是也存在很多的优缺点。 K-means算法是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。(百度百科) 算法的基本过程: 1.首先根据问题的规模和要求,确定要分成几类,这个K值是必须给出的。 K值的给出很关键,这原创 2016-09-14 22:46:42 · 978 阅读 · 0 评论 -
关于深度学习中Dropout的理解
原文链接: http://www.cnblogs.com/tornadomeet/p/3258122.htmlDropout是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。训练神经网络模型时,如果训练样本较少,为了防止模型过拟合,Dropout可以作为一种转载 2016-05-04 12:25:57 · 12924 阅读 · 0 评论 -
argmax()
源自于: numpy.random.argmax() 返回的是x所在的最大值的下标的值,有点抽象,下面看api中给的几个demo:>>> a = np.arange(6).reshape(2,3)>>> aarray([[0, 1, 2], [3, 4, 5]])#默认是返回的所有的元素的最大的一个下标>>> np.argmax(a)5#axis = 0 ,表示以行为基准原创 2016-05-04 21:29:09 · 3838 阅读 · 3 评论 -
云识别概念理解(私人理解)
云识别,之前不是很理解,最近跟做这个的交流了一下,对大体概念和流程有了一个整体的理解,记录一下,万一哪天要做呢深度学习做几类真对不同的图片识别的model, 最好是采用 单进程 + 多模型 的方案, 否则随着识别任务会越来越多,每个进程就得起一个端口号(不理解,为什么每一个进程都要占用一个端口号)通过用户的url请求,当然请求参数中带着图片的类别,然后根据本地训练好的模型,做预测。原创 2016-06-02 12:58:19 · 1972 阅读 · 0 评论 -
FCN(全卷积神经网络)
原文链接: http://mp.weixin.qq.com/s?__biz=MzI1NTE4NTUwOQ==&mid=2650324665&idx=1&sn=3022e7e75a4bad0acdde36fe3edf565e&scene=5&srcid=0603Le1GYOSbqw1m7oU5BdxF#rd从CNN 发展到 FCN ,从有监督训练到end to end, 通常CNN网络转载 2016-06-03 16:01:45 · 23022 阅读 · 2 评论 -
对卷积神经网络(CNN)的简单理解
之前简单的了解过cnn的简单的网络结构,但是对于其中的一些概念都不是很了解,但是最近学tensorflow看源码的时候真的很吃力,啥都看不懂,所以今天下午把cnn详细的看了一下,虽然最近很忙,还是要整理一下思路,算是今天下午的学习成果,本文主要参考两篇博文分别是:http://blog.csdn.net/zouxy09/article/details/8781543/http://bl原创 2016-05-26 20:43:59 · 13086 阅读 · 0 评论 -
LDA(线性判别式分析)以及与PCA降维之间的区别
reference: http://blog.csdn.net/warmyellow/article/details/5454943首先说一下协方差矩阵, 之前大家肯定都学过,忘了的可以稍微看一眼:LDA是多个类的之前的判别,一个类之间的数据我们可以用方差或者标准差,但是多个类之间显然不能再用var or std-var, 这时候就要用到cov.协方差: cov(X, Y原创 2016-10-12 14:51:00 · 9810 阅读 · 0 评论 -
NG《Machine_Learning_Yearning》笔记
首先这本书的定位不是入门全套的机器学习的书,而是对一些有基础有经验的开发者的一本指导手册,设计实验时应该遵循什么样的原则,对于出现结果怎么分析,各个集的错误率分别可以通过什么方法来降低,那些错误率是降低的等Chapter 1: Why Machine Learning Strategy. 拿一个识别cat的demo举例, 比如识别率比较低怎么办,你的team可能会想到这些方法:Get原创 2016-12-11 21:40:18 · 1417 阅读 · 0 评论 -
Facebook/LASER 应用到Paraphrase任务
首先跑通xnli的代码,根据xnli的中间结果或者数据格式来修改我们自己的任务.修改 xnli 任务记得的几个坑:1. 下载 XNLI-1.0.zip 报错了, 下载地址的问题, 根据ReadMe找到原始的下载地址, 修改为 xnli_http="https://www.nyu.edu/projects/bowman/xnli"2. 安装 pip install jieba ...原创 2019-02-18 16:47:09 · 438 阅读 · 0 评论