task5inmemorydataset的使用

对于占用内存有限加粗样式的数据集,可以将整个数据集的数据都存储到内存里。PyG提供了方便的构造数据完全存于内存的数据集类,简称为InMemory数据集类。
学习构造InMemory数据集类的方式如下:

PyG定义了使用数据的一般过程:

1.从网络上下载数据原始文件;
2.对数据原始文件做处理,为每一个图样本生成一个Data对象;
3.对每一个Data对象执行数据处理,使其转换成新的Data对象;
4.过滤Data对象;
5.保存Data对象到文件;
6.获取Data对象,在每一次获取Data对象时,都先对Data对象做数据变换(于是获取到的是数据变换后的Data对象)。
实际中并非需要严格执行每一个步骤,以上步骤在特定的条件下可以被跳过。

InMemoryDataset基类简介
PyG通过继承InMemoryDataset类来自定义一个数据可全部存储到内存的数据集类。

class InMemoryDataset(root: Optional[str] = None, transform: Optional[Callable] = None, pre_transform: Optional[Callable] = None, pre_filter: Optional[Callable] = None)
InMemoryDataset类初始化方法参数说明:

root:字符串类型,存储数据集的文件夹的路径。该文件夹下有两个文件夹:
一个文件夹为记录在raw_dir,它用于存储未处理的文件,从网络上下载的数据集原始文件会被存放到这里;
另一个文件夹记录在processed_dir,处理后的数据被保存到这里,以后从此文件夹下加载文件即可获得Data对象。
注:raw_dir和processed_dir是属性方法,我们可以自定义要使用的文件夹。
transform:函数类型,一个数据转换函数,它接收一个Data对象并返回一个转换后的Data对象。此函数在每一次数据获取过程中都会被执行。获取数据的函数首先使用此transform函数对Data对象做转换,然后才返回数据。transform函数用于数据增广(Data Augmentation)。该参数默认值为None,表示不对数据做转换。

pre_transform:函数类型,一个数据转换函数,它接收一个Data对象并返回一个转换后的Data对象。此函数在Data对象被保存到文件前调用。因此它用于只执行一次的数据预处理加粗样式。该参数默认值为None,表示不做数据预处理。

pre_filter:函数类型,一个检查数据是否要保留的函数,它接收一个Data对象,返回此Data对象是否应该被包含在最终的数据集中。此函数也在Data对象被保存到文件前调用。该参数默认值为None,表示不做数据检查,保留所有的数据。

通过继承InMemoryDataset类来构造一个我们自己的数据集类,我们需要实现四个基本方法加粗样式

raw_file_names():这是一个属性方法,返回一个数据集原始文件的文件名列表,数据集原始文件应该能在raw_dir文件夹中找到,否则调用process()函数下载文件到raw_dir文件夹。
processed_file_names()。这是一个属性方法,返回一个存储处理过的数据的文件的文件名列表,存储处理过的数据的文件应该能在processed_dir文件夹中找到,否则调用process()函数对样本做处理,然后保存处理过的数据到processed_dir文件夹下的文件里。
download(): 下载数据集原始文件到raw_dir文件夹。
process(): 处理数据,保存处理好的数据到processed_dir文件夹下的文件。
一个简化的InMemory数据集类
以下是一个简化的自定义的数据集类的例子:

import torch
from torch_geometric.data import InMemoryDataset, download_url

class MyOwnDataset(InMemoryDataset):
def init(self, root, transform=None, pre_transform=None, pre_filter=None):
super().init(root=root, transform=transform, pre_transform=pre_transform, pre_filter=pre_filter)
self.data, self.slices = torch.load(self.processed_paths[0])

@property
def raw_file_names(self):
    return ['some_file_1', 'some_file_2', ...]

@property
def processed_file_names(self):
    return ['data.pt']

def download(self):
    # Download to `self.raw_dir`.
    download_url(url, self.raw_dir)
    ...

def process(self):
    # Read data into huge `Data` list.
    data_list = [...]

    if self.pre_filter is not None:
        data_list = [data for data in data_list if self.pre_filter(data)]

    if self.pre_transform is not None:
        data_list = [self.pre_transform(data) for data in data_list]

    data, slices = self.collate(data_list)
    torch.save((data, slices), self.processed_paths[0])

在raw_file_names属性方法里,写上数据集原始文件有哪些,在此例子中有some_file_1, some_file_2等。
在processed_file_names属性方法里,处理过的数据要保存在哪些文件里,在此例子中只有data.pt。
在download方法里,我们实现下载数据到self.raw_dir文件夹的逻辑。
在process方法里,我们实现数据处理的逻辑:
首先,我们从数据集原始文件中读取样本并生成Data对象,所有样本的Data对象保存在列表data_list中。
其次,如果要对数据做过滤的话,我们执行数据过滤的过程。
接着,如果要对数据做处理的话,我们执行数据处理的过程。
最后,我们保存处理好的数据到文件。但由于python保存一个巨大的列表是相当慢的,我们需要先将所有Data对象合并成一个巨大的Data对象再保存。collate()函数接收一个列表的Data对象,返回合并后的Data对象以及用于从合并后的Data对象重构各个原始Data对象的切片字典slices。最后我们将这个巨大的Data对象和切片字典slices保存到文件。

公开数据集PubMed为例子,进行InMemoryDataset数据集实例分析。PubMed数据集存储的是文章引用网络,文章对应图的结点,如果两篇文章存在引用关系(无论引用与被引),则这两篇文章对应的结点之间存在边。该数据集来源于论文Revisiting Semi-Supervised Learning with Graph Embeddings。PyG中的Planetoid数据集类包含了数据集PubMed的使用,因此可以直接基于Planetoid类进行修改,得到PlanetoidPubMed数据集。

在我们生成一个PlanetoidPubMed类的对象时,程序运行流程如下:

首先,检查数据原始文件是否已下载:
检查self.raw_dir目录下是否存在raw_file_names()属性方法返回的每个文件,
如文件不存在,则调用download()方法执行原始文件下载。
self.raw_dir为osp.join(self.root, ‘raw’)。
其次,检查数据是否经过处理:
首先,检查之前对数据做变换的方法:检查self.processed_dir目录下是否存在pre_transform.pt文件:
如果存在,意味着之前进行过数据变换,接着需要加载该文件,以获取之前所用的数据变换的方法,并检查它与当前pre_transform参数指定的方法是否相同,
如果不相同则会报出一个警告,“The pre_transform argument differs from the one used in ……”。
self.processed_dir为osp.join(self.root, ‘processed’)。

其次,检查之前的样本过滤的方法:检查self.processed_dir目录下是否存在pre_filter.pt文件:
如果存在,则加载该文件并获取之前所用的样本过滤的方法,并检查它与当前pre_filter参数指定的方法是否相同,
如果不相同则会报出一个警告,“The pre_filter argument differs from the one used in ……”。
接着,检查是否存在处理好的数据:检查self.processed_dir目录下是否存在self.processed_file_names属性方法返回的所有文件,如文件不存在,则需要执行以下的操作:
调用process()方法,进行数据处理。
如果pre_transform参数不为None,则调用pre_transform()函数进行数据处理。
如果pre_filter参数不为None,则进行样本过滤(此例子中不需要进行样本过滤,pre_filter参数为None)。
保存处理好的数据到文件,文件存储在processed_paths()属性方法返回的文件路径。如果将数据保存到多个文件中,则返回的路径有多个。
processed_paths()属性方法是在基类中定义的,它对self.processed_dir文件夹与processed_file_names()属性方法的返回每一个文件名做拼接,然后返回。
最后保存新的pre_transform.pt文件和pre_filter.pt文件,它们分别存储当前使用的数据处理方法和数据检查过滤方法。

参考资料
datawhale的教学文档
InMemoryDataset官方文档:torch_geometric.data.InMemoryDataset
Data官方文档:torch_geometric.data.Data
提出PubMed数据集的论文:Revisiting Semi-Supervised Learning with Graph Embeddings
Planetoid官方文档

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值