- 博客(6)
- 资源 (7)
- 收藏
- 关注
原创 FLOPs与FLOPS的区别
FLOPS 的全称是floating point of per second,它的意思是指每秒浮点运算次数。用来衡量硬件的性能。FLOPs 的全称是floating point of operations,它的意思是指浮点运算次数,可以用来衡量算法/模型复杂度。...
2020-11-30 19:03:02 2640
转载 torch.nn.Parameter理解
Pytorch官网对torch.nn.Parameter()的解释:torch.nn.Parameter是继承自torch.Tensor的子类,其主要作用是作为nn.Module中的可训练参数使用。它与torch.Tensor的区别就是nn.Parameter会自动被认为是module的可训练参数,即加入到parameter()这个迭代器中去;而module中非nn.Parameter()的普通tensor是不在parameter中的。注意到,nn.Parameter的对象的requires_grad属
2020-11-26 19:28:30 6688 2
原创 error:from torch.jit.annotations import Optional ImportError: cannot import name ‘Optional’
解决方案:安装pytorch1.0 要对应安装torchvision0.2.0
2020-11-26 09:57:26 905
转载 pytorch中的worker如何工作的
Question一直很迷,在给Dataloader设置worker数量(num_worker)时,到底设置多少合适?这个worker到底怎么工作的?如果将num_worker设为0(也是默认值),就没有worker了吗?worker的使用场景:rom torch.utils.data import DataLoadertrain_loader = DataLoader(dataset=train_data, batch_size=train_bs, shuffle=True, num_wo
2020-11-25 21:16:50 4368 1
转载 深度学习两种图像数据预处理具体方法
vgg 预处理输入图片 height, widthRESIZE_SIDE_MIN = 256RESIZE_SIDE_MAX = 512R_MEAN = 123.68G_MEAN = 116.78B_MEAN = 103.94训练预处理scale = width < height ? small_size / width : small_size / height 其中 small_size 为 RESIZE_SIDE_MIN 到 RESIZE_SIDE_MAX 的随机数 ne
2020-11-20 21:30:57 2905 1
kddcup.data-10-percent-corrected与kddcup.data-10-percent-correcte
2023-05-04
keras_Gan_v1.rar
2019-11-26
神经网络与深度学习(吴恩达)第二周编程练习(包括lr_utils.py test_catvnoncat.h5 train_catvnoncat.h5)
2017-10-29
kcf目标跟踪代码c++(直接在vs2010+opencv3上面运行就可以)
2017-07-08
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人