深度学习基础
深度学习基础:卷积网络、目标检测等
符号看象限_Wangerer
这个作者很懒,什么都没留下…
展开
-
python 设置随机数种子
随机数种子原创 2022-11-01 20:18:09 · 281 阅读 · 1 评论 -
torch.meshgrid() 函数理解
torch.meshgrid()原创 2022-09-12 17:05:56 · 305 阅读 · 0 评论 -
python函数调用顺序
python函数调用顺序原创 2022-08-19 00:02:10 · 166 阅读 · 0 评论 -
python中*args与**kwargs的理解
python中*args与**kwargs的理解转载 2022-08-18 23:47:05 · 67 阅读 · 0 评论 -
常见的变体卷积
常见的变体卷积原创 2022-08-17 23:14:19 · 406 阅读 · 0 评论 -
Anaconda环境设置
Anaconda基础原创 2022-08-12 17:28:47 · 591 阅读 · 0 评论 -
torch 参数固定
torch 参数固定原创 2022-03-18 17:10:39 · 309 阅读 · 0 评论 -
torch 显存管理
torch 显存管理原创 2021-11-28 01:11:47 · 4283 阅读 · 0 评论 -
torch.nn.parameter.Parameter 使用
torch.nn.parameter.Parameter 使用原创 2021-08-11 22:35:52 · 1057 阅读 · 0 评论 -
torch.nn.functional.interpolate ‘bilinear‘ 图像理解
双线性插值torch.nn.functional.interpolate()原创 2021-08-10 20:20:18 · 862 阅读 · 0 评论 -
torch checkpoint 问题记录
使用torch checkpoint时报错:'NoneType' object has no attribute "'detach'"报错地址:site-packages/torch/utils/checkpoints.py报错原因:torch版本较旧,旧版本中checkpoints.py中缺失对Input是否是tensor的判断,导致报错。升级torch版本,可以解决这个问题。报错根本原因:sparse_masks是self.blocks[i] forward函数中的参数,在此处是None原创 2021-07-29 17:13:04 · 707 阅读 · 0 评论 -
Pytorch节省显存 - checkpoint
Pytorch节省显存 - checkpoint官方文档: torch.utils.checkpoint.checkpoint一、查看模型及中间变量的显存占用情况1. 显存占用参考博客:https://oldpan.me/archives/how-to-calculate-gpu-memoryhttps://zhuanlan.zhihu.com/p/31558973主要由两个部分组成:模型参数模型计算产生的中间变量:前向计算过程中,隐层的输出都被保存在显存中。后向梯度计算时,需原创 2021-06-16 21:51:50 · 2504 阅读 · 2 评论 -
基于Tensorflow使用FasterRCNN训练
源码:endernewton/tf-faster-rcnn一、使用VOC数据集训练1. 克隆Github代码git clone https://github.com/endernewton/tf-faster-rcnn.git2. 配置修改cd ./tf-faster-rcnn/libvim setup.py服务器为GTX 1060,第135行左右,-arch 改为 sm_613. 编译lib文件夹下:make cleanmake4. VOC数据集下载下载地址:VOCtra原创 2020-06-01 19:34:16 · 1449 阅读 · 2 评论 -
简单理解空洞卷积 (dilated convolution)
空洞卷积(dilated convolution)广泛应用于语义分割与目标检测任务中。原创 2020-08-20 17:17:35 · 1260 阅读 · 0 评论