Attention概述

Part I:背景知识 Part II:Attention形式 Part III:具体Task分析 Part I:背景知识 这张图很是出名了,第一个将Attention用在NLP领域的论文,机器翻译,在每一步翻译的时候都关注不同的原文信息。Attention机制可以理解为一种文本聚焦方...

2019-03-28 15:30:56

阅读数 104

评论数 0

Attention Is All You Need

一文看懂Transformer内部原理(含PyTorch实现) Transformer注解及PyTorch实现 原文:http://nlp.seas.harvard.edu/2018/04/03/attention.html   作者:Alexander Rush  转载自机器之心:http...

2019-02-22 19:00:17

阅读数 114

评论数 0

【深度学习】深入理解Batch Normalization批标准化

  这几天面试经常被问到BN层的原理,虽然回答上来了,但还是感觉答得不是很好,今天仔细研究了一下Batch Normalization的原理,以下为参考网上几篇文章总结得出。   Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细...

2019-02-22 18:55:04

阅读数 64

评论数 0

BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结

https://blog.csdn.net/liuxiao214/article/details/81037416

2019-02-21 20:54:29

阅读数 79

评论数 0

tacotron2 介绍

论文地址: natural tts synthesis by conditioning wavenet on mel spectrogram predictions https://arxiv.org/pdf/1712.05884.pdf   论文翻译 https://my.oschin...

2019-01-21 16:28:42

阅读数 348

评论数 0

线性谱与梅尔谱

 

2019-01-21 15:17:51

阅读数 172

评论数 0

静态库与动态库之间的区别

什么是库       库是写好的,现有的,成熟的,可以复用的代码。现实中每个程序都要依赖很多基础的底层库,不可能每个人的代码都从零开始,因此库的存在意义非同寻常。   本质上来说,库是一种可执行代码的二进制形式,可以被操作系统载入内存执行。库有两种:静态库(.a、.lib)和动态库(.so...

2019-01-15 11:23:47

阅读数 97

评论数 0

Kaldi 环境配置及测试

https://zhuanlan.zhihu.com/p/26464775

2018-06-13 12:18:55

阅读数 367

评论数 0

docker 常用命令

================ Images --> Container ================sudo nvidia-docker run --network host -it 621 /bin/bashsudo nvidia-docker run -it 62...

2018-06-12 22:58:47

阅读数 125

评论数 0

docker 安装

转载地址:https://www.cnblogs.com/tianhei/p/7802064.html本文将介绍在ubuntu16.04系统下安装和升级docker、docker-compose、docker-machine。docker:有两个版本:docker-...

2018-06-10 10:25:35

阅读数 190

评论数 0

Sogou Install Step

sogou是基于fcitx的,而系统默认的键盘输入法系统是iBus。Ubuntu 16.04默认是带有fcitx的,正常安装,如果有的话,按上面步骤即可完成;但有些版本的Ubuntu,需要自己安装 fcitx,才能安装使用sogou。 1、添加以下源 : sudo add-apt-reposit...

2018-04-19 20:50:58

阅读数 156

评论数 0

PyTorch损失函数说明

http://blog.csdn.net/zhangxb35/article/details/72464152?utm_source=itdadao&utm_medium=referral

2018-01-12 10:21:58

阅读数 2050

评论数 0

Python----Numpy

ndarray              http://blog.csdn.net/u010161379/article/details/51659362  matrix              http://blog.csdn.net/vincentlipan/artic...

2018-01-08 23:29:33

阅读数 161

评论数 0

Kaldi ------ Install Step

http://blog.csdn.net/kanshimekan/article/details/71194387

2017-12-12 18:17:16

阅读数 251

评论数 0

Caffe之LeNet分析

http://blog.csdn.net/bea_tree/article/details/51601197

2017-12-07 18:37:30

阅读数 170

评论数 0

AlexNet分析

转载地址:http://blog.csdn.net/u014114990/article/details/51125776

2017-12-06 14:58:40

阅读数 520

评论数 0

对全连接层的深入理解

原文地址:http://m.blog.csdn.net/YiLiang_/article/details/60468530 理解全连接层 连接层实际就是卷积核大小为上层特征大小的卷积运算,卷积后的结果为一个节点,就对应全连接层的一个点。(理解) 假设最后一个卷积层的输出为7×7×512,连接此...

2017-12-06 12:18:43

阅读数 2695

评论数 0

LeNet 细节分析

原作者地址:http://www.jianshu.com/p/ce609f9b5910 =============================================================================================== ===...

2017-12-05 17:42:38

阅读数 181

评论数 0

GMM-HMM在语音中的应用常识

本人正在攻读计算机博士学位,目前一直再学习各种模型啊算法之类的。所以一直想把自己的学习过程总结一下,所以就开通了这个博客。 这两天一直再看语音识别方面的知识,想把自己的理解总结一下,希望对其他学习的人有所帮助。 提前需要掌握的知识: 语音信号基础:语音信号的表示形式、分帧、特征(MFCC...

2017-11-28 12:08:15

阅读数 1208

评论数 0

RNN和LSTM推导与实现

BPTT(Back Propagation Through Time) 首先来看看怎么处理RNN。 RNN展开网络如下图 RNN展开结构.jpg RNN节点结构.jpg 现令第t时刻的输入表示为,隐层节点的输出为,输出层的预测值,输入到隐层的权重矩阵,隐层自循环的权重...

2017-11-18 18:54:25

阅读数 606

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭