pytorch/python编程
六点先生
这个作者很懒,什么都没留下…
展开
-
Linux桌面版安装pycharm后找不到快捷启动图标
装过好几次了,每次都遇到这个问题,老是记不住,备忘一下问题描述在官网下载Linux版的pycharm后,按照安装说明,有个txt文件,cd到bin目录下运行./pycharm.sh,然后就自动安装了,然后会提醒新建一个项目或是打开已有项目,就打开或者新建,运行一下都没问题,但是一关pycharm就找不到了,不像windows建一个快捷方式,左下角安装软件里也找不到,又得pycharm.sh一次,但是这也不是个办法啊。。解决方案参考这个回答的第4步:选择菜单Tools /Create Desktop原创 2022-04-20 21:51:03 · 2870 阅读 · 0 评论 -
【pytorch训练过程中服务器内存逐渐增加至process killed】
pytorch训练过程中服务器内存逐渐增加至process killed背景说明之前写过一篇帖子是显存占用逐渐增加到爆,同样的代码,最近又出现一个问题:服务器的RAM在训练过程中,mem used这一项逐渐增加,直到进程被killed。原因还是代码中有一个memory bank,需要把深度模型提取到的特征全部保存下来,进一步分析处理。解决过程分析看帖子其他人讲到使用memory_profiler来分析每行代码的内存使用情况。这个工具很好用,可以统计每行代码执行后使用内存增加/减少数目,帮助锁定内存原创 2022-04-06 22:53:18 · 1812 阅读 · 1 评论 -
RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expe
问题描述:在对loss反向求导的时候报错:RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expected shape compatible with [64, 2048]心路历程:首先找度娘,搜索报错内容你应该会看到很多像这样的内容:“RuntimeError: Function AddBackward0 returned an invalid gradient原创 2021-09-25 00:42:39 · 8221 阅读 · 6 评论 -
pytorch训练过程中内存一直慢慢增长直到爆
原因:代码中需要多次用到一个高维tensor,没一个batch都要更新一次它的值,这个值的获得需要过一次网络心路历程:刚开始以为是传参活着内存释放的问题,又深入研究了python,用了很多del、gc.collect()语句,发现内存释放不掉,还是随着训练过程逐渐增长最终解决:因为是把两个代码的方法往一个整,又看了源码,看到源代码过网络的时候用了with torch.no_grad()这个语句,就试了一下,没想到就是这个问题,困了我两三天啊阿啊分析:应该是没有这个语句的话,因为可能要求导,所以pyto原创 2021-08-27 00:11:54 · 10956 阅读 · 14 评论