01_AlexNet

torch.topk
功能:找出前k大的数据,及其索引号

  • input:张量
  • k:决定选取k个值,k=1是为top-1
  • dim:索引维度
    返回:
  • Tensor:前k大的值
  • LongTensor:前k大的值所在的位置
torch.topk(input, k, dim=None,largest=True,sorted=True,out=None )

torchvision.utils.make_grid
功能:制作网格图像

  • tensor:图像数据,BCHW形式
  • nrow:行数(列数自动计算)
  • padding:图像间距(像素单位)
  • normalize:是否将像素值标准化
  • range:标准化范围
  • scale_each:是否单张图维度标准化
  • pad_value:padding的像素值
make_grid(tensor, nrow=8, padding=2, normalize=False,range=None,scale_each=False, pad_value=0)

代码结构

  1. 加载图片
  2. 加载模型
  3. 模型推理
  4. 获取类别 topk -> index -> names
  5. 分类结果可视化

注意事项

  1. 模型接收4d张量
  2. 弃用LRN(LRN用处不大)
  3. 增加了一个trick增加AdaptiveAvgPool2d,使图片无论多大分辨率,到达该层输出都是6*6,后面接的FC层,即将不匹配的Tensor都池化为6*6的,接入fc层进行classifier。
  4. 卷积核数量有所改变(pytorch中没有完全按照paper中去设置)

采用norm_mean=[0.485,0.456,0.406]
norm_std=[0.229,0.224,0.225]
这两个是通过Image数据集统计的均值和标准差,但是后面用BatchNormalization就可以不用这个。

transforms.ToTensor()区间是[0,1]
img_tensor.unsqueeze_(0) #chw->bchw

with torch.no_grad():
默认情况下会记录grad,如果只是test情况下不需要做反向传播,就可以用torch.no_grad()只做前向传播省时间。

log_interval,多少个epoch打印信息
val_interval,多少个epoch执行验证集
lr_decay_step=1,学习率多少个epoch改变

transforms.Resize((256))只是短边截为256,长边成比例缩短。
transforms.Resize((256,256))是正方形

# ============================ step 4/5 优化器 ============================
    # 冻结卷积层
    flag = 0
    # flag = 1
    if flag:
        fc_params_id = list(map(id, alexnet_model.classifier.parameters()))  # 返回的是parameters的 内存地址
        base_params = filter(lambda p: id(p) not in fc_params_id, alexnet_model.parameters())
        optimizer = optim.SGD([
            {'params': base_params, 'lr': LR * 0.1},  # 0 设置为0即冻结卷积层
            {'params': alexnet_model.classifier.parameters(), 'lr': LR}], momentum=0.9)
bs, ncrops, c, h, w = inputs.size()     # [4, 10, 3, 224, 224
                    outputs = alexnet_model(inputs.view(-1, c, h, w))
                    outputs_avg = outputs.view(bs, ncrops, -1).mean(1)

ncrops是分割多出的10张图,然后对10张图结果取平均。
流程就是对4batch的每个10张图的图片进行调整,先将4*10,3,224,224输入model中,对结果进行分割出来,得到4batch的结果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值