之前已经处理出了kitti format的waymo dataset文件,但距离模型真正处理数据还有很长一段路。虽然在runner的train里,data的获取很简单,就是一个enumerate(dataloader):
for i, data_batch in enumerate(self.data_loader):
self._inner_iter = i
self.call_hook('before_train_iter')
self.run_iter(data_batch, train_mode=True, **kwargs)
# model forward && calc loss && backprop
self.call_hook('after_train_iter')
# optimize, save logs
self._iter += 1
但事实上数据要从file system读入到内存,经过pipeline类的格式处理、数据增强,进入gpu,然后才能给已经load进gpu的model进行训练。
在这个过程中有几个很关键的类在起作用,有dataset类,sampler类,dataloader类,mmdet的这几个类基本上继承自pytorch类。接下来结合waymo的代码介绍一下这三个类。
torch.utils.data
iterator 迭代器
和c++里的set等stl类一样,iterator可以帮助我们遍历整个类,或者说容器的内容。在这里主要是sampler和dataloader有自己的iterator,这样就能实现for i,data in enumerate(dataloader): output = model(data)
的功能了。
对于dataloader来说,为了支持iterator,需要实现几个方法:
.__len__(self)
,一般返回类的长度,比如数据有几个frame。.__getitem__(self)
,定义获取容器指定元素的行为,这样就可以以data[index]的下标方式访问类里的信息。.__iter__(self)
:定义当迭代容器中的元素时的行为,我的理解是,这样使得for之初能获取到dataloader的iterator.__next__(self)
:定义迭代器的迭代规则,比如按某种顺序遍历整个set,for循环每次都会调用一下next。
具体例子可以看教程一
dataset
主要实现了数据从文件读到内存的功能,定义了__getitem__,这样当你dataset[index]的时候,就能得到某个frame的数据。主要类型有两种&