Path: blob/master/site/zh-cn/guide/migrate/mirrored_strategy.ipynb
25118 views
Copyright 2021 The TensorFlow Authors.
迁移单工作进程多 GPU 训练
本指南演示了如何将单工作进程多 GPU 工作流从 TensorFlow 1 迁移到 TensorFlow 2。
要在一台机器上跨多个 GPU 执行同步训练,请执行以下操作:
在 TensorFlow 1 中,将
tf.estimator.Estimator
API 与tf.distribute.MirroredStrategy
一起使用。在 TensorFlow 2 中,可以使用 Keras Model.fit 或带有
tf.distribute.MirroredStrategy
的自定义训练循环。有关详情,请参阅使用 TensorFlow 进行分布式训练指南。
安装
从导入和用于演示目的的简单数据集开始:
TensorFlow 1:使用 tf.estimator.Estimator 进行单工作进程分布式训练
此示例演示了单工作进程多 GPU 训练的 TensorFlow 1 规范工作流。您需要通过 tf.estimator.Estimator
的 config
参数设置分布策略 (tf.distribute.MirroredStrategy
):
TensorFlow 2:使用 Keras 进行单工作进程训练
迁移到 TensorFlow 2 时,可以将 Keras API 与 tf.distribute.MirroredStrategy
一起使用。
如果您使用 tf.keras
API 进行模型构建,并使用 Keras Model.fit
进行训练,那么主要区别在于,这会在 Strategy.scope
的上下文中实例化 Keras 模型、优化器和指标,而不是为 tf.estimator.Estimator
定义 config
。
如果您需要使用自定义训练循环,请查看将 tf.distribute.Strategy 与自定义训练循环一起使用指南。
后续步骤
要详细了解如何在 TensorFlow 2 中使用 tf.distribute.MirroredStrategy
进行分布式训练,请查看以下文档: