![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 64
皮皮#2500
这个作者很懒,什么都没留下…
展开
-
subprocess.CalledProcessError: Command ‘[‘ninja‘, ‘-v‘]‘ returned non-zero exit status 1.
subprocess.CalledProcessError: Command ‘[‘ninja‘, ‘-v‘]‘ returned non-zero exit status 1.问题产生原因解决方法参考链接问题产生原因这个问题的出现与pytorch的版本有关,可以把pytorch版本降到1.5.0以下。但是这个解决方法治标不治本,有时候我们不可避免的需要使用高版本的pytorch,这就需要对pytorch做一些更改。解决方法修改anaconda环境下的lib/python3.6/site-packa原创 2022-04-10 22:37:47 · 18270 阅读 · 3 评论 -
pytorch中数据可视化,tenserboard的安装与使用
pytorch中数据可视化,tenserboard的安装与使用tensorboard安装tensorboard可视化数据tensorboard安装pip install tensorboardXpip3 install tensorflow-gpu==1.15 -i https://pypi.tuna.tsinghua.edu.cn/simpletensorboard可视化数据Pytorch使用tensorboardX可视化...转载 2021-02-24 11:44:19 · 354 阅读 · 0 评论 -
神经网络中的ablation study是什么
The original meaning of “Ablation” is the surgical removal of body tissue. The term “Ablation study” has its roots in the field of experimental neuropsychology of the 1960s and 1970s, where parts of animals’ brains were removed to study the effect that转载 2021-01-26 11:19:39 · 594 阅读 · 0 评论 -
Pytorch神经网络所需的编程基础知识
Pytorch神经网络所需的编程基础知识nn.Module类def __init__(self, name等多参数)super().__init__()view()forward的调用nn.Module类class AlexNet(nn.Module),类AlexNet继承自nn.Module类,详解见:n.Module类详解——使用Module类来自定义模型def init(self, name等多参数)__init__(self) 初始化,详解见:读懂python中的selfpython原创 2020-12-09 15:20:36 · 234 阅读 · 0 评论 -
Batch Normalization批标准化的原理,为什么以及如何使用Batch Normalization
Batch Normalization批标准化的原理,以及如何使用Batch Normalization为什么使用Batch NormalizationInternal Covariate ShiftBatch Normalization本质思想如何使用Batch Normalization参考链接为什么使用Batch NormalizationBatch Normalization(BN)方法最初在Batch Normalization: Accelerating Deep Network Train原创 2020-12-08 09:48:07 · 377 阅读 · 0 评论 -
深度学习中为什么要使用零均值化(zero-mean)处理
深度学习中为什么要使用零均值化(zero-mean)处理原因参考链接 在深度学习中,一般我们会把喂给网络模型的训练图片进行预处理,使用最多的方法就是零均值化(zero-mean) / 中心化,即让所有训练图片中每个位置的像素均值为0,使得像素值范围变为[-128,127],以0为中心。这样做的优点是为了在反向传播中加快网络中每一层权重参数的收敛。原因 常用的激活函数(例如ReLu或者Sigmoid)输出和导数都是大于等于0的。如果神经网络输入样本被预处理在0-1之间,如果没有batchn转载 2020-12-07 16:02:38 · 5141 阅读 · 0 评论 -
Python中的广播机制
Python中的广播机制广播机制例子总结参考链接广播机制 在python中使用numpy进行按位运算的时候,有一个小技巧可以帮助减少代码量——那就是broadcasting(广播机制)。 简单来说,broadcasting可以这样理解:如果你有一个(m,n)的矩阵,让它加减乘除一个(1,n)的矩阵,它会被复制m次,成为一个(m,n)的矩阵,然后再逐元素地进行加减乘除操作。同样地对(m,1)的矩阵成立。例子1.输入:A = numpy.array([1,2,3])result =转载 2020-06-09 10:57:58 · 1454 阅读 · 0 评论