学习目标:
本周计划
- 学习使用pytorch
- 学习faster-rcnn,yolo等一系列的检测算法
- python的进阶
6/27日计划
- 看视频至P16
- 整理总结transform
- 整理总结hook
- __call__的用法
- 好好上班,开开心心
6/28日计划
- 看视频至P17
- 整理总结distiller的流程
- sequence的使用是啥呢(待定)
- 好好上班,开开心心
6/29日计划
- ——————
- ——————
6/30日计划
- ——————
- ——————
7/1日计划
- ——————
- ——————
学习内容:
pytorch的使用
- List item
Dataset: 提供一种方式去获取数据及其label,所有自己写的dataset类都需要继承dataset类,所有子类都需要重写__getitem__的方法用于和获取每个样本的label,可以选择重写__len__这个方法,用于知道这个数据集有多大。
下面将实现一个自己的数据集Mydata,
import torch
import os
from PIL import Image
import numpy as np
from torch.utils.data import Dataset
from torch.utils.tensorboard import SummaryWriter
class MyData(Dataset):
def __init__(self, root_dir, label_dir):
self.root_dir = root_dir
self.label_dir = label_dir
self.path = os.path.join(root_dir, label_dir) #path是每张图片的具体路径
self.img_path =os.listdir(self.path) #listdir是将文件夹下的所有文件名以列表形式返回
def __getitem__(self, index):
img_name = self.img_path[index]
img_item_path = os.path.join(self.root_dir, self.label_dir, img_name)
#PIL读图
img = Image.open(img_item_path)
label = self.label_dir
return img, label
def __len__(self):
return len(self.img_path)
root_dir = 'dataset/train'
ants_label_dir = 'ants'
bees_label_dir = 'bees'
ant_dataset = MyData(root_dir, ants_label_dir) # 蚂蚁数据集
bee_dataset = MyData(root_dir, bees_label_dir) # 蜜蜂数据集
# img, label = bee_dataset[1]
# img.show()
train_dataset = ant_dataset + bee_dataset
print(len(train_dataset))
img, label = bee_dataset[1]
img_array = np.array(img)
Dataloader: 对数据进行打包,为网络提供不同的数据形式
-
transforms的结构和用法
检测算法的实现
python的进阶
- PIL的用法
使用PIL读取图片,注意 PIL读取到的数据类型是jepg
from PIL import Image
img = Image.open(img_item_path)
6/27:
- transform
from torchvision import transforms
# transforms文件中定义了很多中转换的工具,注意,这些工具都分别是类
from PIL import Image
from torch.utils.tensorboard import SummaryWriter
# 读图
img_path = r'dataset\train\ants\0013035.jpg'
img = Image.open(img_path)
# ToTensor()
trans_totensor = transforms.ToTensor()
img_tensor = trans_totensor(img)
# Normalize
trans_norm = transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5])
img_norm = trans_norm(img_tensor)
# Resize/compose
trans_resize2 = transforms.Resize(512)
# compose的用法,他的参数是一个列表,compose中的数据需要的是transforms类型,compose([tran1, tran2]) compose就是将多种参数放在一起
trans_compose = transforms.Compose([trans_resize2, trans_totensor])
img_resize_2 = trans_compose(img)
- __call__的用法
__call__的方法可以直接通过实例化的对象进行调用
# 栗子
class Person:
def __call__(self, name):
print('__call__'+'hello'+name)
def hello(self, name):
print('hello'+name)
person = Person()
person('张三')
- hook的用法
PyTorch中使用register_forward_hook和register_backward_hook获取Module输入和输出的feature_map和grad。
hook_fn的声明为
# 注意,此处的module一定是某个层,不能是某个block
hook_fn(module, input, output) -> Tensor or None
def hook_forward_fn(module, input, output):
print(f"module: {module}")
print(f"input: {input}")
print(f"output: {output}")
class CBR(nn.Module):
def __init__(self):
super().__init__()
self.conv = nn.Conv2d(3, 1, 1)
self.bn = nn.BatchNorm2d(1)
self.conv.register_forward_hook(hook_forward_fn)
self.bn.register_forward_hook(hook_forward_fn)
def forward(self, x):
x = self.conv(x)
x = self.bn(x)
return torch.relu(x)
net = CBR()
x = torch.rand(1, 3, 2, 2, requires_grad=True)
y = net(x).mean()
y.backward()
输出为
module: Conv2d(3, 1, kernel_size=(1, 1), stride=(1, 1))
input: (tensor([[[[0.1824, 0.0140],
[0.3478, 0.8911]],
[[0.3780, 0.3915],
[0.3625, 0.1337]],
[[0.5159, 0.2859],
[0.5742, 0.0458]]]], requires_grad=True),)
output: tensor([[[[-0.3373, -0.2838],
[-0.3712, -0.3378]]]], grad_fn=<MkldnnConvolutionBackward>)
module: BatchNorm2d(1, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
input: (tensor([[[[-0.3373, -0.2838],
[-0.3712, -0.3378]]]], grad_fn=<MkldnnConvolutionBackward>),)
output: tensor([[[[-0.1507, 1.5480],
[-1.2299, -0.1675]]]], grad_fn=<NativeBatchNormBackward>)