![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
ch ur h
在校研究生,对深度学习、计算机视觉、图像压缩和压缩感知感兴趣,知乎主页:https://www.zhihu.com/people/kong-gu-you-lan-56-63/activities,github主页:https://github.com/liujiawei2333/
展开
-
pytorch学习系列(10):断点续训
训练中难免遇到停电、宕机等情况。如果没有设置断点续训,那么就得从头开始,非常浪费时间和能源。要实现断点续训,首先要保存之前训练的模型,除此之外,还有优化器的状态。这是因为目前很多优化器的参数是会随着训练而不断变化的,具体可见这篇博客:pytorch学习系列(4):常用优化算法首先设置两个参数:start_epoch:续训时开始训练的epoch数resume:是否实施断点续训start_e...原创 2020-04-12 11:49:09 · 3237 阅读 · 9 评论 -
pytorch学习系列(9):只保存精度最高的模型
只保存精度最高的模型原创 2019-11-29 16:26:34 · 10804 阅读 · 4 评论 -
pytorch学习系列(8):统计模型的参数和计算量
https://mp.weixin.qq.com/s/EXuFXbPBIbzTyi0fUjvvPw转载 2019-11-25 15:39:02 · 789 阅读 · 0 评论 -
pytorch学习系列(7):代码调试工具torchsnooper
https://mp.weixin.qq.com/s/PVIWWIqbZuEe4lwVMDYA5Q转载 2019-11-25 15:37:02 · 244 阅读 · 0 评论 -
pytorch学习系列(6):不同的层设置不同的学习率(迁移学习)
pytorch,迁移学习,不同层设置不同的学习率原创 2019-11-25 15:30:42 · 1166 阅读 · 0 评论 -
pytorch学习系列(5):单通道灰度图的保存(大坑)
pytorch的torchvision无法保存真正的灰度图像,只能产生三个相同通道的伪灰度图像,本文就是解决这个问题的原创 2019-11-25 15:16:17 · 4703 阅读 · 0 评论 -
pytorch学习系列(5):模型部分参数使用(迁移学习)
有两种方式:1.Net.load_state_dict(torch.load(model_path),strict=False)使用strict参数,如果为True,表明预训练模型的层和自己定义的网络结构层严格对应相等(比如层名和维度),这里选择为False,则不完全对等,会自动舍去多余的层和其参数。2.pretrained_dict=torch.load(model_path)mo...原创 2019-10-11 15:31:23 · 1233 阅读 · 0 评论 -
适合于图像重建问题的归一化层:GENERALIZED NORMALIZATION TRANSFORMATION(GDN)
一种适合于图像生成和恢复的归一化层及其pytorch实现原创 2019-09-04 22:38:02 · 6068 阅读 · 2 评论 -
pytorch学习系列(4):常用优化算法
常用的深度学习优化算法的数学原理和pytorch实现原创 2019-09-02 22:23:18 · 4792 阅读 · 4 评论 -
pytorch学习系列(3):两种tensorboard可视化
全面的可视化原创 2019-08-18 10:35:44 · 509 阅读 · 3 评论 -
pytorch学习系列(2):使用torchvision.transforms对图像数据预处理
图像数据预处理和增强原创 2019-08-15 16:45:46 · 1482 阅读 · 0 评论 -
pytorch学习系列(1):学习率调整
pytorch中的六种学习率调整方式原创 2019-08-01 22:11:38 · 1281 阅读 · 0 评论