python 小程序
jinggegebuaa
这个作者很懒,什么都没留下…
展开
-
Stylenga_pytorch 代码解析
import argparseimport mathimport randomimport osimport numpy as npimport torchfrom torch import nn, autograd, optimfrom torch.nn import functional as Ffrom torch.utils import dataimport torch.distributed as distfrom torchvision import transform.原创 2021-08-18 15:00:25 · 1397 阅读 · 0 评论 -
生成器代码分析
输入是一个:一个随机的向量获取方式为:原创 2021-08-11 11:17:12 · 206 阅读 · 0 评论 -
stylegan2-pytorch 自己训练的model 出错
CUDA_VISIBLE_DEVICES=1 python train.py --batch 16 lmdb_test_0806/解决方法:CUDA_VISIBLE_DEVICES=1 python generate.py --size 256 --ckpt ./checkpoint/550000.pt5500000的这个模型是作者发布得模型2800000这个是我自己训练的模型我训练的步骤为:python prepare_data.py --out LMDB_PATH --...原创 2021-08-10 15:12:25 · 6927 阅读 · 6 评论 -
GPEN 损失函数
作者使用了三个损失函数:1. 参数的设置: 感知损失: https://blog.csdn.net/zyr_freedom/article/details/115255300感知损失函数代码调试:...原创 2021-08-09 18:49:58 · 523 阅读 · 0 评论 -
sytlengan2 代码解析
real_img = next(loader) real_img = real_img.to(device) #生成器设置为False,判别器设置为True requires_grad(generator, False) requires_grad(discriminator, True) #生成噪声 noise = mixing_noise(args.batch, args.latent,...原创 2021-08-06 20:04:26 · 231 阅读 · 0 评论 -
如何获取CelebA-HQ的数据集
https://zhuanlan.zhihu.com/p/52188519转载 2021-07-28 15:51:03 · 2975 阅读 · 0 评论 -
Video-Swin-Transformer 跑通遇到的问题
1.首先运行:python tools/test.py configs/recognition/swin/swin_base_patch244_window877_kinetics400_1k.py model/swin_base_patch244_window877_kinetics400_1k.pth --eval top_k_accuracy遇到错误:File "tools/test.py", line 6, in <module> import mmcvModuleNo...原创 2021-07-13 16:52:20 · 2624 阅读 · 6 评论 -
运行stam 遇到的问题:
在55服务器运行stam看到网络结构为:为什么两个norm层连在一起然后两个dropout层也连在一起?原创 2021-06-18 16:23:19 · 98 阅读 · 0 评论 -
预训练模型导致的问题 --预训练模型上传的时候没有上传成功
mismatch for layer1.0.conv1.weight: copying a param with shape torch.Size([64, 64, 3, 3]) from checkpoint, the shape in current model is torch.Size([64, 64, 1, 1]).size mismatch for layer1.1.conv1.weight: copying a param with shape torch.Size([64, 64, 3.原创 2021-06-05 18:12:53 · 3210 阅读 · 0 评论 -
senet-运行和结构篇
senet 新认识senet 的结构:从这个上面我们是实际上是看不太清楚se 模块加在哪里的其中:1. Squeeze部分。即为压缩部分,原始feature map的维度为H*W*C,其中H是高度(Height),W是宽度(width),C是通道数(channel)。Squeeze做的事情是把H*W*C压缩为1*1*C,相当于把H*W压缩成一维了,实际中一般是用global average pooling实现的。H*W压缩成一维后,相当于这一维参数获得了之前H*W全局的视野,感受原创 2021-05-27 17:12:39 · 292 阅读 · 1 评论 -
.WeightedRandomSampler(3)
问题描述: 最早一批数据是2500 多张,新一批的数据有36000 多张。然后最近训练的时候,设置train_nums 设置为36000但是实际训练的时候,貌似不太行,总是报各种错误train_nums=36000train_sampler=torch.utils.data.WeightedRandomSampler(weights=sampler_weights,num_samples=train_nums, ...原创 2021-05-25 14:51:52 · 151 阅读 · 0 评论 -
resnet 优化之cbam
1. cbamhttps://blog.csdn.net/qq_44666320/article/details/105694019https://blog.csdn.net/qq_38410428/article/details/1036947592. se netclass ChannelAttention(nn.Module): def __init__(self, in_planes, ratio=16): super(ChannelAttention, s原创 2021-05-19 18:32:57 · 2516 阅读 · 0 评论 -
resnet18 参数解读
global_params=GlobalParams(block=block,num_classes=num_classes,zero_init_residual=zero_init_residual,groups=groups,width_per_group=width_per_group,replace_stride_with_dilation=replace_strid...原创 2021-05-19 18:26:19 · 4216 阅读 · 0 评论 -
resnet18 结构
可以看到在fc层之前的一层是avgpool层其实就是卷积只有alenet才是3个全连接吧原创 2021-05-18 18:07:14 · 297 阅读 · 0 评论 -
全连接与卷积
用卷积代替全连接有以下优点:1. 更灵活,不需要限定输入图像的分辨率;- 这个怎么理解是测试阶段的不需要限定输入的分辨率还是训练阶段也不需要限制输入的分辨率? 为什么我觉得其实是都需要?我认为不能做到不需要限制图像的分辨率,比如我的图像是224的和图像是256的那么,到达全连接层前面一层的结果是不一样的对吧 比如我如果使用224的输入,那么alxnet输入到全连接层前面一层的结果是 7x7x512 如果我的输入尺寸比这个尺寸大,那么我得到的结果理论上比这个数值大更具...原创 2021-05-18 15:50:36 · 324 阅读 · 0 评论 -
自己关于pytorch transfomers 的一个误区
关于transfomers的一个误区,我之前认为是输入一个图进去,输出是5个图然后对应标签是一个但是现在看来输入一个图输出一个图跟标签一起送到网络里面去打印输出为:就是给一张图,但是我经过变换其实一张图这样label就不会变化...原创 2021-04-22 15:05:49 · 93 阅读 · 0 评论 -
X3D 参数代码(一)
X3D 模型有 XS SM L xl 几种我跑的单卡 M 的版本 batchsize 只能设置到8S 的版本batchsize 只能设置到16batchsize 比较小的时候,训练的loss 就很容易上下跳动比如:然后记得caffe 里面有个iter_size 就是可以多几个batchsize 的时候在反传一次梯度这个操作在pytorch 里面是:https://blog.csdn.net/qq_38372240/article/details/107345859...原创 2020-11-20 15:02:55 · 637 阅读 · 1 评论 -
relu 里面的是激活函数
Swishpaper:https://arxiv.org/abs/1710.05941beta是个常数或者可以训练的参数。其具有无上界有下界、平滑、非单调的特性。其在模型效果上优于ReLU。当β = 0时,Swish变为线性函数f(x)=x2f(x)=x2.β → ∞, σ(x)=(1+exp(−x))−1σ(x)=(1+exp(−x))−1为0或1. Swish变为ReLU: f(x)=2max(0,x)所以Swish函数可以看做是介于线性函数与ReLU函数之间的平滑函数.原创 2020-11-17 16:38:16 · 131 阅读 · 0 评论 -
梯度反传
pytorch 梯度反传详细说明:import torchw = torch.tensor([1.], requires_grad=True)x = torch.tensor([2.], requires_grad=True)a = torch.add(w, x)b = torch.add(w, 1)y = torch.mul(a, b)print(w)print(x)print(a)print(b)print(y) y.backward(retain_graph=True原创 2020-11-15 11:40:49 · 224 阅读 · 0 评论 -
模型flops 的计算方法
insightface 里面的计算flops 的方法在:下面的flops_counter.pypythonflops_counter.py 可以得到需要的flops从代码上可以看到 计算两部分的flops一部分是卷积的flops 另外一部分是fc 层的flops attr 表示有没有偏置我们打印出来卷积里面的input_shape 和output_shapecov层的flops 的计算公式为:-1 是对于没有偏置的情况kernel 一般是方形的 kernel[0] .原创 2020-07-30 17:58:20 · 2497 阅读 · 0 评论 -
从视频解码成图片-python小程序
import cv2import osimport pdbcap = cv2.VideoCapture('/data/geguojing/tracking/videos/19.mp4')image_dir ='/data/geguojing/tracking/images/19'fps =cap.get(cv2.CAP_PROP_FPS)size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_.原创 2020-05-11 16:55:57 · 315 阅读 · 2 评论