pytorch笔记
有趣的学习
日常记笔记,更多内容关注可见(^_^)a
展开
-
分割评价指标
def accuracy(pred_mask, label): ''' acc=(TP+TN)/(TP+FN+TN+FP) ''' pred_mask = pred_mask.astype(np.uint8) TP, FN, TN, FP = [0, 0, 0, 0] for i in range(label.shape[0]): for j in range(label.shape[1]): if label[i][.原创 2021-09-15 20:09:06 · 467 阅读 · 0 评论 -
查看torch版本,cuda和pytorch版本是否匹配
import torchprint(torch.__version__) #注意是双下划线print(torch.version.cuda)print(torch.cuda.is_available())原创 2021-06-10 21:12:45 · 2746 阅读 · 2 评论 -
显卡、cuda常用命令 保存下
查看windows的CUDA版本nvcc --version查看显卡基本信息lspci | grep -i nvidia 查看显卡驱动版本nvidia-smi -a查看gpu使用情况nvidia-smi原创 2021-04-30 19:59:15 · 227 阅读 · 1 评论 -
防止过拟合
这里写目录标题获取更多的训练数据(数据增强)使用几何变换的数据增强基于GAN的数据增强减少网络容量增加正规化L1正则化和L2正则化的说明:L1正则化和L2正则化的作用:添加drop获取更多的训练数据(数据增强)使用几何变换的数据增强诸如翻转(Flip),裁剪(Crop),旋转(Rotation)和移位(Translation)之类的几何变换是一些常用的数据增强技术。基于GAN的数据增强减少网络容量防止过拟合最简单的方法是减少模型的大小,即模型中可学习参数的数量(由层的数量和每层的单位数量决定)。原创 2021-04-12 10:12:22 · 257 阅读 · 0 评论 -
pytorch--模型微调fine-tuning
Fine tuning 模型微调在前面的介绍卷积神经网络的时候,说到过PyTorch已经为我们训练好了一些经典的网络模型,那么这些预训练好的模型是用来做什么的呢?其实就是为了我们进行微调使用的。1.1 什么是微调针对于某个任务,自己的训练数据不多,那怎么办?没关系,我们先找到一个同类的别人训练好的模型,把别人现成的训练好了的模型拿过来,换成自己的数据,调整一下参数,再训练一遍,这就是微调(fine-tune)。PyTorch里面提供的经典的网络模型都是官方通过Imagenet的数据集与训练好的数据原创 2021-04-06 15:27:28 · 1671 阅读 · 2 评论