deep learning
weixin_44602056
这个作者很懒,什么都没留下…
展开
-
RuntimeError: cuDNN error: CUDNN_STATUS_NOT_INITIALIZED using pytorch
RuntimeError: cuDNN error: CUDNN_STATUS_NOT_INITIALIZED using pytorchtest codeimport torchfrom torch import nnm = nn.Conv1d(16, 33, 3, stride=2)m=m.to('cuda')input = torch.randn(20, 16, 50)input=input.to('cuda')output = m(input)I guess this is no原创 2021-03-17 10:56:36 · 495 阅读 · 0 评论 -
pip安装torch, torchvision, opencv-python太慢的问题解决
http://download.pytorch.org/whl/torch_stable.html去这个网址: torch下载下载所需要的torch.whl and torchvision.whl 然后单独安装即可,因为pip实在是太慢了。原创 2021-03-16 15:14:10 · 2908 阅读 · 1 评论 -
题
题目单选题有个袋子装有2个红球,2个蓝球,1个黄球,取出球以后不再放回,请问取两次出来的球是相同颜色的概率是多少? 0.2 2/5x1/4x2 = 0.2 简单的组合问题Batch Normalization的优点:①可以使用较大的学习速率②带有正则化的效果③不受网络参数初始值的影响④加速神经网络训练的通用手段项目2项目3...原创 2020-12-23 09:58:13 · 151 阅读 · 0 评论 -
谈谈关于转置卷积的理解
谈谈关于转置卷积的理解为什么是转置卷积卷积操作反过来操作卷积矩阵转置卷积矩阵总结最近看到反卷积的概念,开始不太明白,然后查了些资料,总算搞明白了,顺便在此对结合自己的理解做一记录。当我们使用神经网络生成网络图片时,经常需要将一些低分辨率的图片转换为高分辨率的图片,对于这种上采样操作,除了一些传统的插值方法,神经网络中通常采用**转置卷积(反卷积)**来实现。为什么是转置卷积转置卷积(Transposed Convolution)常常在一些文献中也称之为反卷积(Deconvolution转载 2020-10-14 09:09:35 · 283 阅读 · 0 评论 -
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks最新提交作业的评分90%1.第 1 个问题Suppose your training examples are sentences (sequences of words). Which of the following refers to the j^{th}jth word in ...原创 2019-08-01 08:25:57 · 646 阅读 · 0 评论