Pytorch使用记录(一)

这篇博客记录了使用PyTorch过程中遇到的问题及解决方法,包括CUDA指定显卡报错、数据处理错误、logging重复输出、未使用的网络组件影响性能以及网络结构调整后的预训练权重使用问题。提供了解决这些问题的具体步骤和建议。
摘要由CSDN通过智能技术生成

文章首发及后续更新:https://mwhls.top/3938.html,无图/无目录/格式错误/更多相关请至首发页查看。
新的更新内容请到mwhls.top查看。
欢迎提出任何疑问及批评,非常感谢!

记录最近用PyTorch的问题及解决。

这篇的最后一点是四月十九号写的,一直懒得发,估计又要开新坑了,所以把老的记录先发一下

1. CUDA指定显卡时报错
2. Pytorch数据使用列表的卷积层时报错
3. logging重复输出
  • 场景:对于 import logging,多次训练时,日志重复输出。
  • 解决:在 logging.getLogger() 后加入 logger.handlers.clear()
  • 参考:浅析python日志重复输出问题
  • 说明:这篇帖子写的很全,我按文件的 file.close() 去找,好些都说 .shutdown().close(),都没这方法,为了给他点个赞,特地注册了个博客园账号。
4.加不用的网络会影响性能
  • 场景:在给模型加新的网络,即便不使用,也会影响性能(我出现的都是降低)。
  • 说明:会改变涉及到随机数的操作,比如每次取的 Batch 不同。
    • 我老师只提了这个,不过我看代码觉得还有权重初始化时也会产生影响。
    • 加个判断禁用它可以避免影响,但如何在这个场景下解决,我也不清楚,就导致一些实验得重复做。
5. 网络结构更改不能用预训练权重
  • 场景:改变了某一层网络,或是 img_size 使用了不同的大小,导致不能用预训练权重。
  • 解决:对预训练权重上采样或是下采样。
  • 说明:暂时我还没有实践过,因为代码自带了,后面我实践过会补充。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值