6/27到7/3日学习计划

学习目标:

本周计划

  • 学习使用pytorch
  • 学习faster-rcnn,yolo等一系列的检测算法
  • python的进阶

6/27日计划

  • 看视频至P16
  • 整理总结transform
  • 整理总结hook
  • __call__的用法
  • 好好上班,开开心心

6/28日计划

  • 看视频至P17
  • 整理总结distiller的流程
  • sequence的使用是啥呢(待定)
  • 好好上班,开开心心

6/29日计划

  • ——————
  • ——————

6/30日计划

  • ——————
  • ——————

7/1日计划

  • ——————
  • ——————

学习内容:

pytorch的使用

  1. List item
    Dataset: 提供一种方式去获取数据及其label,所有自己写的dataset类都需要继承dataset类,所有子类都需要重写__getitem__的方法用于和获取每个样本的label,可以选择重写__len__这个方法,用于知道这个数据集有多大。
    下面将实现一个自己的数据集Mydata
import torch
import os
from PIL import Image
import numpy as np
from torch.utils.data import Dataset
from torch.utils.tensorboard import SummaryWriter

class MyData(Dataset):
  def __init__(self, root_dir, label_dir):
    self.root_dir = root_dir
    self.label_dir = label_dir
    self.path = os.path.join(root_dir, label_dir) #path是每张图片的具体路径
    self.img_path =os.listdir(self.path)          #listdir是将文件夹下的所有文件名以列表形式返回

  def __getitem__(self, index):
    img_name = self.img_path[index]
    img_item_path = os.path.join(self.root_dir, self.label_dir, img_name)
    #PIL读图
    img = Image.open(img_item_path)
    label = self.label_dir
    return img, label
  
  def  __len__(self):
    return len(self.img_path)

root_dir = 'dataset/train'
ants_label_dir = 'ants'
bees_label_dir = 'bees'
ant_dataset = MyData(root_dir, ants_label_dir)  # 蚂蚁数据集
bee_dataset = MyData(root_dir, bees_label_dir)  # 蜜蜂数据集
# img, label = bee_dataset[1]
# img.show()
train_dataset = ant_dataset + bee_dataset
print(len(train_dataset))
img, label = bee_dataset[1]
img_array = np.array(img)

Dataloader: 对数据进行打包,为网络提供不同的数据形式

  1. transforms的结构和用法

检测算法的实现

python的进阶

  1. PIL的用法
    使用PIL读取图片,注意 PIL读取到的数据类型是jepg
from PIL import Image

img = Image.open(img_item_path)


6/27:

  1. transform
from torchvision import transforms
# transforms文件中定义了很多中转换的工具,注意,这些工具都分别是类
from PIL import Image
from torch.utils.tensorboard import SummaryWriter
# 读图
img_path = r'dataset\train\ants\0013035.jpg'
img = Image.open(img_path)

# ToTensor()
trans_totensor = transforms.ToTensor()
img_tensor = trans_totensor(img)

# Normalize
trans_norm = transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5])
img_norm = trans_norm(img_tensor)

# Resize/compose
trans_resize2 = transforms.Resize(512)
# compose的用法,他的参数是一个列表,compose中的数据需要的是transforms类型,compose([tran1, tran2]) compose就是将多种参数放在一起
trans_compose = transforms.Compose([trans_resize2, trans_totensor])
img_resize_2 = trans_compose(img)
  1. __call__的用法
    __call__的方法可以直接通过实例化的对象进行调用
# 栗子
class Person:
    def __call__(self, name):
        print('__call__'+'hello'+name)
    def hello(self, name):
        print('hello'+name)

person = Person()
person('张三')
  1. hook的用法
    PyTorch中使用register_forward_hook和register_backward_hook获取Module输入和输出的feature_map和grad。
    hook_fn的声明为
# 注意,此处的module一定是某个层,不能是某个block
hook_fn(module, input, output) -> Tensor or None
def hook_forward_fn(module, input, output):
    print(f"module: {module}")
    print(f"input: {input}")
    print(f"output: {output}")


class CBR(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv = nn.Conv2d(3, 1, 1)
        self.bn = nn.BatchNorm2d(1)

        self.conv.register_forward_hook(hook_forward_fn)
        self.bn.register_forward_hook(hook_forward_fn)

    def forward(self, x):
        x = self.conv(x)
        x = self.bn(x)
        return torch.relu(x)

net = CBR()
x = torch.rand(1, 3, 2, 2, requires_grad=True)
y = net(x).mean()
y.backward()

输出为

module: Conv2d(3, 1, kernel_size=(1, 1), stride=(1, 1))
input: (tensor([[[[0.1824, 0.0140],
          [0.3478, 0.8911]],

         [[0.3780, 0.3915],
          [0.3625, 0.1337]],

         [[0.5159, 0.2859],
          [0.5742, 0.0458]]]], requires_grad=True),)
output: tensor([[[[-0.3373, -0.2838],
          [-0.3712, -0.3378]]]], grad_fn=<MkldnnConvolutionBackward>)
module: BatchNorm2d(1, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
input: (tensor([[[[-0.3373, -0.2838],
          [-0.3712, -0.3378]]]], grad_fn=<MkldnnConvolutionBackward>),)
output: tensor([[[[-0.1507,  1.5480],
          [-1.2299, -0.1675]]]], grad_fn=<NativeBatchNormBackward>)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值