Deep Learning
文章平均质量分 70
zeeq_
A WHU LIESMARSer
展开
-
二分类结果评价之TP、FP、TN、FN及准确率、精确率、召回率、F1得分的计算方式和python代码实现
混淆矩阵也称误差矩阵,是表示精度评价的一种标准格式,用n行n列的矩阵形式来表示。在二分类场景里是一个2x2的矩阵。如下图。TP(True Positive):真正例,实际上和预测中都是正例;FP(False Positive):假正例,实际上是负例,但是被预测为正例了;FN(False Negative):假负例,实际上是正例,但是被预测为负例了;TN(True Negative):真负例,实际上和预测中都是负例。import numpy as np# 计算混淆矩阵def compute_原创 2022-05-29 11:10:02 · 11237 阅读 · 4 评论 -
使用pytorch的时候,报错NVIDIA GeForce RTX 3080 Ti with CUDA capability sm_86 is not compatible with xxx的解决方法
报错信息如下:torch/cuda/__init__.py:104: UserWarning: NVIDIA GeForce RTX 3080 Ti with CUDA capability sm_86 is not compatible with the current PyTorch installation.The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 co原创 2021-12-06 16:10:18 · 9058 阅读 · 2 评论 -
怎么查看显卡算力(附nvidia显卡算力表)
要查看显卡算力,可以直接去nvidia查看,查询链接在这里。进去后,里头会有几个可选项,如下图所示:点进去自己显卡对应的系列即可。比如大家最常用的GeForce系列显卡算力表:原创 2021-12-06 14:46:01 · 30210 阅读 · 3 评论 -
从零开始配一个深度学习服务器:固态+机械双硬盘ubuntu系统的安装、分区、配置超详细教程
本教程主要教大家如何从零开始安装配置一个完整的ubuntu系统及深度学习环境搭建,是作者多次实践的结晶,超详细靠谱。该服务器在两块硬盘上只安装ubuntu20.04一个系统,给出了合理的系统内存分配方案。作者的系统配置是:nvidia 3080Ti显卡,显存为12G,电脑内存32G,有两块硬盘,其中SSD大小为512G,机械硬盘大小为4T。最终安装的驱动版本为nvidia-driver-470,cuda版本为11.0,cudnn版本为8.0.5,anaconda版本为2021.11版。...原创 2021-12-05 19:14:40 · 17912 阅读 · 8 评论 -
ubuntu中使用终端命令行快速查看torch.save保存的pth / pth.tar格式训练数据的方法
在使用pytorch框架训练深度学习网络的时候,我们可以很方便地使用torch.save()方法对训练过程中的网络参数等信息进行保存。比如这里,我们保存成的文件格式为pth.tar(如下图所示),咋一看以为是一个压缩包,需要先解压一下。其实不用,直接使用torch.load就可以了。下面讲一下其数据查看方法。 首先,在这些pth.tar文件的目录下打开一个终端,执行:python 进入python命令行模式。比如我想查看net_5000_checkpoint.pth.tar文件里的内容,那原创 2021-10-30 16:27:24 · 2548 阅读 · 0 评论 -
报错RuntimeError: torch.cuda.FloatTensor is not enabled.的可能原因及解决办法
使用pytorch时候报错RuntimeError: torch.cuda.FloatTensor is not enabled.,具体信息如下所示:可能原因1 出现这个错误,有可能是因为你的电脑没有英韦达显卡,不支持GPU加速,而你在代码中使用了gpu。解决办法就是把gpu版本的代码改成cpu版本的,也就是把代码里所有出现.cuda()的地方都修改为.cpu()即可。具体可以参考这里。可能原因2 还一个原因,刚好和上面的反过来了。当然,不是因为电脑没有cpu,而是你下载安装的pytorc原创 2021-10-28 15:42:04 · 4381 阅读 · 0 评论 -
使用anaconda创建并管理深度学习虚拟环境的教程
通常,不同的深度学习论文其所使用的pytorch/tensorflow以及一些库的版本会不一样。而当我们需要在一台机子上跑这些代码的时候,就需要使用工具来创建不同的深度学习环境。这样的工具包括conda、docker等,它们可以创建并隔离管理不同的虚拟环境。下面详细介绍一下使用conda来创建并配置一个全新的虚拟环境的步骤(默认已经安装并配置好anaconda了,没有的话,去下一个吧),以安装python3.6.4,pytorch0.4.0,torchvision0.2.1为例。 需要明确的一点是,原创 2021-10-27 14:55:40 · 2521 阅读 · 0 评论 -
residual block、bottleneck、skip connection……都是些什么?
最近在看论文的时候,总是时不时会看到residual block、bottleneck、skip connection等术语,于是花了点时间找了几篇高质量的问答贴看了一下(链接附在本文末尾),并将一些比较重要的点在此记录一下。它们其实都和一篇卷积神经网络经典论文有关:Deep Residual Learning for Image Recognition,也就是大名鼎鼎的ResNet。 residual block直译为残差块。在ResNet论文中,residual block有两种形式,一种叫Ba原创 2021-10-10 14:32:24 · 7377 阅读 · 0 评论 -
Ubuntu下查看cuda占用情况&清除gpu占用&跑深度学习报错RuntimeError: CUDA out of memory. Tried to allocate...解决办法
在使用GPU跑深度学习的时候,报错RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 7.92 G......。意思就是GPU显存不够了。一般来说,解决方法有如下几个:降低batch_size。比如原本设置的是64,那么现在可以改为32或者16甚至更小(我感觉我减少了batch_size之后还是没法跑,更好的解决方法是第二条)。更根本的,查看一下GPU的使用情况,然后将占用较高却又没用的程序给关了。具体怎么查看原创 2021-03-23 10:29:44 · 12824 阅读 · 0 评论 -
ubuntu20.04配置深度学习环境教程(nvidia驱动+cuda+cudnn)
ubuntu下配置深度学习环境很容易出错,网上一搜有五花八门的教程。有些认为直接在安装cuda的时候顺便装驱动,有些则是先自己安装好驱动,然后在装cuda的时候就不再安装驱动了。 我选择了后者,这似乎是一个更多人认可的方法。教程的话,网上已有的太多了,但是靠不靠谱另说。在这里我通过自己的安装过程来记录一个可靠的安装方法。主要的安装教程在此:https://zhuanlan.zhihu.com/p/73787970 我基本上是按照这个教程一步步来的,只不过中途遇到了一些小问题。在此,具体安装过程我原创 2021-03-18 13:36:31 · 1000 阅读 · 1 评论 -
深度学习入门学习路线及好课推荐
CS231n是斯坦福大学李飞飞教授课题组讲授的一门卷积神经网络课程(Convolutional Neural Networks for Visual Recognition),深受广大深度学习初学者喜爱。其最新的录制课程是2017年的,之后的课程没有录播。腾讯云大学上面有该课程的视频,包含中英文对照字幕,链接https://cloud.tencent.com/edu/learning/course-1039-690虽然该课程是深度学习入门课,但是如果你之前从未接触过任何关于深度学习的基础知识,那么直接观看原创 2021-03-17 21:50:46 · 2666 阅读 · 1 评论 -
深度学习网络反向传播时梯度计算图(Computational Graph)详解
首先,引出一个术语:gate。它指一个函数,也可以理解为上一个例子中的circuit diagram的每个节点。比如q=x+y是一个gate,f=qz也是一个gate。任何一类可微函数都可以作为一个gate,我们可以把多个gate组合成一个gate,或者在方便的时候把一个gate分解成多个gate。下面看例子: 这个表达式描述了一个使用sigmoid激活函数的二维神经元(输入x和权重w)。但现在让我们简单地把它看作是从输入w,x到一个数的函数。该函数由多个gate组成,可以拆解为更简单的函数:原创 2021-03-17 20:31:48 · 1359 阅读 · 0 评论