![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
dakenan1
这个作者很懒,什么都没留下…
展开
-
torch多GPU并行计算data_paraller踩坑
torch.nn.data_parallel和class nn.DataParallel都在一个source里边,一个是函数一个是类,这里贴出来源代码,如果出现了各种类似out of memory、 a chunk memory之类的都可以看看。 ```python import operator import torch import warnings from itertools impor...原创 2019-11-09 17:47:37 · 3695 阅读 · 0 评论 -
KNN与K-Means的区别
KNN(K-Nearest Neighbor)介绍 Wikipedia上的 KNN词条 中有一个比较经典的图如下: KNN的算法过程是是这样的...转载 2019-08-21 15:25:23 · 143 阅读 · 0 评论 -
基于Tacotron汉语语音合成的开源实践
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 ...原创 2019-08-21 16:26:12 · 868 阅读 · 0 评论 -
TensorFlow入门(五)多层 LSTM 通俗易懂版
前言: 根据我本人学习 TensorFlow 实现 LSTM 的经历,发现网上虽然也有不少教程,其中很多都是根据官方给出的例子,用多层 LSTM 来实现 PTBModel 语言模型,比如: tensorflow笔记:多层LSTM代码分析 但是感觉这些例子还是太复杂了,所以这里写了个比较简单的版本,虽然不优雅,但是还是比较容易理解。 如果你想了解 LSTM 的原理的话(前提是你已经理解了普...转载 2019-08-21 15:22:45 · 771 阅读 · 0 评论 -
详解梯度爆炸和梯度消失
那么为什么会出现梯度消失的现象呢?因为通常神经网络所用的激活函数是sigmoid函数,这个函数有个特点,就是能将负无穷到正无穷的数映射到0和1之间,并且对这个函数求导的结果是f′(x)=f(x)(1−f(x))。因此两个0到1之间的数相乘,得到的结果就会变得很小了。神经网络的反向传播是逐层对函数偏导相乘,因此当神经网络层数非常深的时候,最后一层产生的偏差就因为乘了很多的小于1的数而越来越小,最终就...转载 2019-09-30 00:00:41 · 234 阅读 · 0 评论 -
关于卷积神经网络(CNN)概念及过程的理解
**局部连接:**局部区域大小就是滤波器Filter,每一个卷积核对应一个Filter,对区域内数据进行卷积操作; **权值共享:**遍历一次CNN结构(或者一层卷积层),每一层的每一个卷积核,在滑动计算一个Batch size的图像矩阵时,卷积核的参数都是固定的,直到下一轮卷积操作前才会更新权值; 卷积神经网络最大的特点就在于它的局部连接和权值共享,通过卷积操作实现局部连接,这个局部区域的大小就...原创 2019-10-05 02:00:21 · 489 阅读 · 0 评论