- 分布式训练reader准备
- 实现 cluster_reader 来读取分布式训练数据集
- 预先切分训练文件
分布式训练reader准备
一个数据并行的分布式训练任务通常会含有多个训练进程,每个训练进程处理整个数据集中的一部分,根据当前进程的唯一序号(trainer_id)以及训练进程总数(trainers)可以决定当前训练进程应该读取哪一部分数据。
实现 cluster_reader 来读取分布式训练数据集
比较通用的方法,可以实现一个 cluster_reader, 根据训练进程数量以及进程序号决定读取哪些 example:
- def cluster_reader(reader, trainers, trainer_id): def reader_creator(): for idx, data in enumerate(reader()): if idx % trainers == trainer_id: yield data return readertrainers = int(os.getenv("PADDLE_TRAINERS", "1"))trainer_id = int(os.getenv("PADDLE_TRAINER_ID", "0"))train_reader = cluster_reader(paddle.dataset.mnist.train(), trainers, trainer_id)
上述代码中,trainers 和 trainer_id 分别是训练进程总数和当前训练进程的序号,可以通过环境变量或者参数的方式传递给 Python 程序。
预先切分训练文件
由于使用 cluster_reader 依然会读取全量数据,对于训练进程比较多的任务,会造成IO资源的浪费、影响训练性能。另一种方法是可以将训练数据切分成多个小文件,每个进程处理其中的一部分文件,例如在 Linux 系统中可以使用 split 命令将训练数据切分成多个小文件:
数据切分好以后, 可以实现一个 file_dispatcher 函数,根据训练进程数量以及序号决定需要读取哪些文件:
- def file_dispatcher(files_pattern, trainers, trainer_id): file_list = glob.glob(files_pattern) ret_list = [] for idx, f in enumerate(file_list): if (idx + trainers) % trainers == trainer_id: ret_list.append(f) return ret_listtrainers = int(os.getenv("PADDLE_TRAINERS", "1"))trainer_id = int(os.getenv("PADDLE_TRAINER_ID", "0"))files_pattern = "cluster/housing.data.*"my_files = file_dispatcher(files_pattern, triners, trainer_id)
在上述例子中,files_pattern 是训练文件的 glob 表达式,一般可以用通配符来表示。