![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
小刺球
一个新手小白,记录学习中的点点滴滴,如有问题,请指正
展开
-
pytorch官方的torch.nn.TransformerEncoder举例报错,求解决方法
官网:torch.nn.TransformerEncoder原创 2022-07-09 14:01:50 · 462 阅读 · 1 评论 -
linux配置anconda和pycharm并安装pytorch
1、下载anaconda清华镜像源:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/2、下载pycharm地址:https://www.jetbrains.com/pycharm/download/#section=windows下载免费版就行3、将两个安装包上传到服务器上4、安装anaconda(1)bash Anaconda3-2021.11-Linux-x86_64.sh(2)按提示安装:enter键 -> yes原创 2022-05-06 12:07:36 · 860 阅读 · 0 评论 -
CUDA out of memory
如果:(1)nvidia-smi查看服务器资源够;(2)batch-size调小后还是显示内存不够;(2)报错后查看报错的地方,发现在测试时报错。解决:在测试时加上:with torch.no_grad()在测试时一定要清除梯度,不然一直出现CUDA out of memory...原创 2022-04-22 15:41:02 · 345 阅读 · 0 评论 -
python中将一个列表赋值给另一个列表的问题
我需要将a列表的值赋给b列表的值,开始是这么写的:a=[1,2,3,4]b=ab.remove(2)print(a)print(b)但是我移除b中的某个元素时,a中的元素也被移除了,输出结果为:[1, 3, 4][1, 3, 4]然后打印两个列表的地址:print(a is b) #Trueprint(id(a)) #2198485055240print(id(b)) #2198485055240输出是同一对象,地址也是一样的。原因涉及到深拷贝与浅拷贝。解决方法可以用到切原创 2021-10-31 15:52:01 · 1660 阅读 · 0 评论 -
conda环境的创建与切换
查看环境:conda info --envs 或者 conda env list创建环境:conda create -n 名称 python==3.6.13激活环境:source activate 名称删除环境:conda remove -n 名称 --all原创 2021-09-10 10:25:31 · 177 阅读 · 0 评论 -
卷积神经网络处理图像数据
传入神经网络训练是Tensor格式的,图片格式为[b,c,w,h]b:batch_size 输入的训练数量c:通道数w:传入图片的宽h:传入图片的高卷积神经网络的计算公式1、设输入图像尺寸为WH,卷积核大小为FF,步长为S,图像通道数为C,Padding为P,即:卷积后输出的图像大小为:2、池化的计算公式nn.Conv2d( in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1原创 2021-05-17 10:20:05 · 615 阅读 · 0 评论 -
RuntimeError: CUDA out of memory. Tried to allocate 320.00 MiB (GPU 0; 10.92 GiB total capacity; 9.9
RuntimeError: CUDA out of memory. Tried to allocate 320.00 MiB (GPU 0; 10.92 GiB total capacity; 9.95 GiB already allocated; 265.38 MiB free; 156.78 MiB cached)记录一下pytorch中的运行错误以及解决办法,出现如下问题:应该是GPU的大小问题,将代码中的batch_size设置小点,我设置的batch_size=128改为batch_size原创 2020-12-29 21:04:34 · 4651 阅读 · 5 评论