深度学习
文章平均质量分 74
KyrieLiu52
这个作者很懒,什么都没留下…
展开
-
上采样和反卷积 Up-sampling and Transposed Convolution (Deconvolution)
文章目录 1. 卷积操作2. 卷积矩阵3. 反卷积4. 反卷积矩阵5. 使用卷积计算反卷积6. 总结参考文献 使用反卷积(Transposed Convolution)来进行上采样操作,不需要借助插值方法,并且可以提供能够学习的参数。 反卷积在DCGAN和图像的语义分割网络中,有很重要的应用。 1. 卷积操作 我们用一个简单的例子来介绍卷积的计算过程。如下图所示,用一个3x3的卷积核对一个4x4的矩阵进行卷积操作,步长为1,不施加padding,则可以得到一个2x2的结果矩阵。 计算输入.转载 2022-05-26 16:59:26 · 693 阅读 · 0 评论 -
【PyTorch】argparse + os.environ 设置pytorch网络使用的显卡
指定使用的显卡编号os.environ("CUDA_VISIBLE_DEVICES")='2,3,4'设置环境变量CUDA_VISIBLE_DEVICES为’2,3,4’,这个时候对于系统来说只有编号2,3,4的显卡是可见的(从0开始)通过torch.cuda.device_count()获取显卡数量的时候显示的是3,即只能看见这三张显卡在使用pytorch时,如果需要在gpu上对某些数据进行操作,一般的流程是:# 获取设备device = torch.device('cuda:0') # 使原创 2022-05-26 15:47:13 · 1732 阅读 · 0 评论 -
检查pytorch是否安装成功、查看torch和cuda的版本
方式 1在安装完成pytorch和cudatoolkit之后,需要检查一下是否安装成功,可以直接查看当前环境下安装的所有包来验证:conda list可以看到pytorch版本和cuda的版本分别是1.10.1和11.3.1方式 2也可以在python代码中进行验证和查看import torch # 如果pytorch安装成功即可导入print(torch.cuda.is_available()) # 查看CUDA是否可用print(torch.cuda.device_count())原创 2022-04-21 17:28:14 · 166769 阅读 · 23 评论 -
RuntimeError: each element in list of batch should be of equal size (使用collate_fn解决)
前边在PyTorch训练时,在加载数据集的时候报错:RuntimeError: each element in list of batch should be of equal size这个错误的原因是同一个mini-batch中,数据的大小不一样。getitem返回类型为Tensor、Tuple、List这里先以简单的图像分类举例,讲解问题、原理、解决方案,dataset类和读取数据的代码应该大致如下:from torch.utils.data import Dataset, DataLoade原创 2022-02-27 14:43:53 · 8775 阅读 · 4 评论 -
【TensorFlow】神经网络中间层截取、可视化中间层结果
在预测的过程中,想要将神经网络模型的中间层结果获取到,并进行可视化。训练过程中搭建的模型代码如下:class_num = 3base_model = tf.keras.applications.MobileNetV2(input_shape=IMG_SHAPE, include_top=False, weights=原创 2021-09-13 16:37:10 · 3106 阅读 · 0 评论 -
【TensorFlow】如何通过手动方式下载TensorFlow官方的ImageNet预训练模型
在使用TensorFlow进行网络的搭建时,可以使用下面的语句来获取一些网络的模型(其中:include_top表示是否包括顶层网络,顶层即处理输出的几个层;weights表示模型加载的权重,可以选择None不加载、imagenet加载网络在ImageNet上训练的权重、或者指定本地权重的路径)base_model = tf.keras.applications.MobileNetV2(input_shape=IMG_SHAPE,原创 2021-08-12 15:27:04 · 3154 阅读 · 0 评论