- 博客(5)
- 资源 (3)
- 收藏
- 关注
原创 pytorch使用报错
一篇简书写了一些常见的pytorch报错问题:https://www.jianshu.com/p/1fa86e060e5a 问题一: Unexpected key(s) in state_dict: "bn1.num_batches_tracked", "layer1.0.bn1.num_batches_tracked", "layer1.0.bn2.num_batches_tracke...
2018-12-20 10:51:32 3749 6
转载 pytorch当中的dataloader的collate_fn的使用
转载自: https://www.jianshu.com/p/bb90bff9f6e5 总之,collate_fn就是,在若干张图片拼接为一个batch的时候,我们需要组织一种数据拼接方式,这个数据拼接方式就是collate_fn。这里说明了batch当中每个data由哪些元素组成...
2018-12-29 22:43:19 6407
转载 Numpy中的广播(Broadcasting)
Numpy的Universal functions 中要求输入的数组shape是一致的,当数组的shape不想等的时候,则会使用广播机制,调整数组使得shape一样,满足规则,则可以运算,否则就出错 四条规则如下: All input arrays with ndim smaller than the input array of largest ndim, have 1’s prepende...
2018-12-16 19:59:38 181
转载 卷积,特征图,转置卷积和空洞卷积的计算细节
转载自:https://www.jianshu.com/p/09ea4df7a788?utm_source=oschina-app 这篇文章写的超详细!!!!:https://www.cnblogs.com/cvtoEyes/p/8513958.html ============================================================ 最近在做姿态估计...
2018-12-15 19:10:13 1176
转载 pytorch fine-tuning注意事项
前言 这篇文章算是论坛PyTorch Forums关于参数初始化和finetune的总结,也是我在写代码中用的算是“最佳实践”吧。最后希望大家没事多逛逛论坛,有很多高质量的回答。 参数初始化 参数的初始化其实就是对参数赋值。而我们需要学习的参数其实都是Variable,它其实是对Tensor的封装,同时提供了data,grad等借口,这就意味着我们可以直接对这些参数进行操作赋值了。这就是PyTo...
2018-12-05 19:07:11 778
Deep Learning for Computer Vision with_Python_Practitioner Bundle【完整版】
2018-05-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人