![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
pt
Escape the bug
简单而快乐。
展开
-
Pytorch中的gather的理解和用法
对于 PyTorch 中的 gather 函数理解原创 2023-11-27 14:48:45 · 317 阅读 · 0 评论 -
pytorch训练过程中GPU显存一直增加问题
我的解决方法:少用append()笑死。。。哈哈原创 2021-09-27 20:09:37 · 1372 阅读 · 0 评论 -
test setup failed、fixture ‘args‘ not found问题
这个程序用到了pytest可能是它出现的问题。解决方法:将还有test的函数改名。。就行了 好像只要还有test都不行。比如testt也是不可以的。原创 2021-01-20 10:28:40 · 4281 阅读 · 8 评论 -
transform.ToTensor(), transform.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))作用
在图片的预处理中经常用到:transform.ToTensor()ToTensor()能够把图片的灰度范围从0~255 变成0~1之间transform.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))transforms.Normalize()功能:逐channel的对图像进行标准化(均值变为0,标准差变为1),可以加快模型的收敛output = (input - mean) / stdmean:各通道的均值std:各通道的标准差图片三个通道前一个(0.原创 2021-01-19 11:09:50 · 1293 阅读 · 1 评论 -
No module named pip解决办法
直接上代码:打开你python.exe所在的文件夹 然后执行下面一句python -m ensurepip如果要更新pip,同样也是在这个文件夹底下:python -m pip install --upgrade pip成功!原创 2021-01-18 19:42:44 · 651 阅读 · 0 评论 -
_, predicted = torch.max(outputs, 1),_,的作用
torch.max(k,1)其中这个 1代表行,0的话代表列。不加_,返回的是一行中最大的数。加_,则返回一行中最大数的位置。测试如下:原创 2021-01-15 14:59:14 · 6023 阅读 · 1 评论 -
np.transpose(npimg, (1, 2, 0)的作用
在Pytorch的官方文档中这个np.transpose()有点不明白它的含义。查阅资料后:plt.imshow(np.transpose(npimg, (1, 2, 0)))。因为在plt.imshow在现实的时候输入的是(imagesize,imagesize,channels)imshow中,参数img的格式为(channels,imagesize,imagesize),这两者的格式不一致,我们需要调用一次np.transpose函数,即np.transpose(npimg,(1,2,0.原创 2020-11-27 19:16:36 · 15035 阅读 · 5 评论 -
在PyTorch中data.norm()是含义
在PyTorch的官方文档中,有这段代码:x = torch.randn(3, requires_grad=True)print(x)y = x * 2while y.data.norm() < 1000: y = y * 2print(y)如图:其中 y.data.norm()不明白它到底是计算了什么。所以我进行了以下测试。首先,它对张量y每个元素进行平方,然后对它们求和,最后取平方根。 这些操作计算所谓的L2或欧几里德范数 。...原创 2020-11-25 19:41:11 · 9101 阅读 · 4 评论 -
Windows下,Pytorch安装
Pytorch安装目录前言1.配置虚拟环境2.下载pytorch3.完成测试目录前言最近代码的学习基本上都是需要啥用啥。整体来说基础特别的差。所以打算重新零基础的学习下Pytorch,基础学起,从安装开始,今后也一直更新。也好好学习一下csdn的排版。最近也是真的太浮躁了。急于求成,(。_。)参考文章:https://www.cnblogs.com/zhouzhiyao/p/11784055.html1.配置虚拟环境Anaconda 集成的 conda 包就能够解决这个问题。它可以创造出两个屋原创 2020-10-28 09:08:39 · 91 阅读 · 0 评论