pytorch
文章平均质量分 68
亿是守候 & 亿是承诺
,
展开
-
深度学习中的top-1和top-5区别
在深度学习看论文的过程中,经常会看到各种神经网络模型在ImageNet上介绍Top-1和Top-5准确率和Top-1错误率和Top-5错误率所谓的Top-1正确率和Top-5正确率指的是什么呢?如果ImageNet有1000个类别,在预测某一张图片时,模型会给出1000个类别的概率从高到低进行排名。所谓的Top-1正确率指的是排名第一名与实际结果相符合的概率Top-5指的是排名前五的类别包含实际结果的概率,这也是为什么Top-1的概率一般都远小于Top-5的概率...原创 2022-05-09 18:38:35 · 2324 阅读 · 2 评论 -
经典卷积神经网络--AlexNet分析与pytorch代码
2012年AlexNet卷积神经网络结构被提出,并且以高出第二名10%的准确率获得2012届ImageNet图像识别大赛中获得冠军,使得CNN成为了图像分类核心算法模型。AlexNet网络特点1:AlexNet一共有八层,五个卷积层和三个全连接层。由于是对ImageNet数据集进行分类,所以最后一层的输出会接上softmax,一共1000个输出(ImageNet一共有1000个类别),softmax会产生1000类标签。2:在AlexNet中,使用RuLu函数来增加模型的非线性能力。3:使用了Dro原创 2022-04-22 21:43:57 · 3171 阅读 · 3 评论 -
解决jupyter notebook的kernel error内核启动失败问题
当Anconda安装多个python环境时,或者由于多次卸载安装Anaconda时,导致python的kernel内核启动失败问题,使得jupyter notebook不可用。找不到启动文件。还有就是直接复制粘贴别人已经搭建好的环境过来,在kernel.json里面的启动内核环境还是原来的那个路径。如下图所示内核启动失败kernel error点击原因,你可以看到,系统找不到指定文件的路径本文的启动内核失败的原因是:直接复制另一台电脑上的环境,结果在kernel.json里的环境路径还是原来的那个原创 2022-04-13 12:24:20 · 18272 阅读 · 18 评论 -
池化层:最大池化MaxPool、平均池化AvgPool、自适应池化AdaptiveMaxPool区别--基于pytorch框架
文章目录MaxPool2d最大池化AvgPool2d平均池化AdaptiveAvgPool2d自适应平均池化池化操作的一个重要的目的就是对卷积后得到的特征进行进一步处理,池化层可以起到对数据进一步浓缩的效果,从而缓解计算时内存的压力。在pytoch中提供很多池化的类,这里主要介绍最**大池化(MaxPool)、平均池化(AvgPool)、自适应池化(AdaptiveAvgpool)**的区别,,其他方法类似。对于torch.nn.MaxPool2d()池化操作相关参数的应用,其使用方法如下所示tor原创 2022-04-07 14:50:22 · 10171 阅读 · 1 评论