官方文档写的很详细
- 包含并行参数num_parallel_calls的函数:map和interleave。
- dataset.repeat()作用?The default behavior (if count is None or -1) is for the dataset be repeated indefinitely.
- tf.contrib.data.parallel_interleave()用法?可以替换为dataset.interleave()。
- tf.contrib.data.map_and_batch()用法?不推荐使用,可以拆为dataset.map()和dataset.batch()。
- dataset.interleave()是并行版的flat_map吗?
- 训练数据存在硬盘时,用dataset输入数据的时候,数据是一次性读入内存的?还是每次读取batch个数据?