深度学习
麒麒哈尔
这个作者很懒,什么都没留下…
展开
-
Pytorch代码踩坑
文章目录1、CrossEntropy的weight的问题1、CrossEntropy的weight的问题在使用torch.nn.CrossEntropyLoss时,其中有个参数是weight,官方给出的文档中显示,weight是a manual rescaling weight given to each class,也就是一个缩放的尺度。但我发现,当另一个参数的reduction为mean的时候,会出现一些问题。import torchimport torch.nnpred = torch.t原创 2020-05-18 16:45:42 · 492 阅读 · 3 评论 -
【深度学习】Cross Entropy Loss
文章目录起因Cross Entropy Loss的由来Tensorflow中的CEPytorch中的CEPytorch中CE和BCE的区别Pytorch对真正CE的支持Cross Entropy Loss (CE)被经常用在分类问题中,但之前也没仔细了解过其中一些细节。本博客主要针对Pytorch中对CE的支持,但也结合了对TensorFlow中的CE的支持。其中本博客参考总结了大量其他博客的...原创 2020-04-14 11:55:41 · 6067 阅读 · 5 评论 -
【深度学习】调试代码踩坑
文章目录num_workernum_worker在调试过程中,会保存一些中间变量的文件来判断代码是否写的正确。本人就遇到一个问题,想保存一帧输入的点云,在自己定义的dataset的getitem函数中在两个地方分别保存了该点云,分别命名为file1和file2(内容是一样的)。但在可视化的时候,这两个点云不重合,而且来自独立的两帧。为什么会出现这个问题?在定义dataloader时,将num...原创 2019-12-26 10:32:35 · 439 阅读 · 0 评论 -
【深度学习】【Pytorch学习】Pytorch自带Loss总结
Loss总结L1Lossmean absolute error默认reduction参数为mean,是对所有的元素进行平均。MSELoss默认reduction参数为mean。除了使用MSE计算loss,其他的与L1Loss一样。NLLLossnegative log likelihood loss,用于多分类问题 在计算时,对于每个batch的 ln,只使用x...原创 2019-06-13 10:58:04 · 3410 阅读 · 0 评论 -
【深度学习】tensorflow各个版本下载地址
tensorflow与CUDA对应表如下需要装低版本的tensorflow,下载地址:http://mirrors.aliyun.com/pypi/simple/tensorflow-gpu/原创 2019-12-20 16:34:23 · 1240 阅读 · 1 评论 -
【深度学习】数据增强
文章目录增强方法工具包这篇博客,就来聊一聊数据增强的方式,数据增强是为了在小数据集上增加网络的泛化性能。增强方法具体的综述有下里面几篇文章1、A survey on Image Data Augmentation 数据增强文献综述本文将数据增强方式分成了Basic的和DeepLearning的。DeepLearning中的典型代表就是GAN,但对于一般的应用,目前还是Basic的方式用的...原创 2019-12-08 15:17:17 · 1833 阅读 · 0 评论 -
CNN中的receptive filed(感受野)
英文链接https://medium.com/mlreview/a-guide-to-receptive-field-arithmetic-for-convolutional-neural-networks-e0f514068807中文翻译https://blog.csdn.net/u010532666/article/details/79082879通过卷积和池化层,CNN越上层的fea...原创 2019-08-08 11:04:05 · 334 阅读 · 0 评论 -
cs231n课程笔记
aaa课程链接图像分类 Image ClassificationNN & KNNLinear Classification神经网络卷积激活函数权重初始化正则化Loss训练前的检查训练中需要关注的点功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如...原创 2019-07-26 21:30:56 · 499 阅读 · 0 评论