Path: blob/master/site/ja/guide/migrate/fault_tolerance.ipynb
38627 views
Copyright 2021 The TensorFlow Authors.
フォールトトレランスメカニズムを移行する
フォールトトレランスとは、パラメータやモデルなどの追跡可能なオブジェクトの状態を定期的に保存するメカニズムを指します。これにより、トレーニング中にプログラム/マシンに障害が発生した場合に回復が可能になります。
このガイドでは、まず tf.estimator.RunConfig で指標の保存を指定することにより、TensorFlow 1 で tf.estimator.Estimator を使用してトレーニングにフォールトトレランスを追加する方法を示します。次に、Tensorflow 2 でのトレーニングにフォールトトレランスを実装する 2 つの方法を学習します。
Keras
Model.fitAPI を使用する場合、tf.keras.callbacks.BackupAndRestoreコールバックを渡すことができます。カスタムトレーニングループ(
tf.GradientTapeを使用)を使用する場合、tf.train.Checkpointおよびtf.train.CheckpointManagerAPI を使用してチェックポイントを任意に保存できます。
これらの方法は両方とも、チェックポイントファイルのトレーニング状態をバックアップおよび復元します。
セットアップ
tf.keras.callbacks.BackupAndRestore の save_freq 引数を使用した特定のステップでのチェックポイント保存の頻度が TensorFlow 2.10 から導入されたため、tf-nightly をインストールします。
TensorFlow 1: tf.estimator.RunConfig でチェックポイントを保存する
TensorFlow 1 では、tf.estimator.RunConfig を構成して、各ステップでチェックポイントを保存するために tf.estimator を構成できます。
この例では、5 番目のチェックポイントで人為的にエラーをスローするフックを作成することから始めます。
次に、すべてのチェックポイントを保存し、MNIST データセットを使用するように tf.estimator.Estimator を構成します。
モデルのトレーニングを開始します。前に定義したフックによって人為的な例外が発生します。
最後に保存されたチェックポイントを使用して tf.estimator.Estimator を再構築し、トレーニングを続行します。
TensorFlow 2: コールバックと Model.fit を使用したバックアップと復元
TensorFlow 2 では、トレーニングに Keras Model.fit API を使用する場合、tf.keras.callbacks.BackupAndRestore コールバックを提供してフォールトトレランス機能を追加できます。
これを実証するために、最初に 4 番目のエポックチェックポイントで人為的にエラーをスローする Keras Callback クラスを定義することから始めます。
次に、単純な Keras モデルを定義してインスタンス化し、損失関数を定義して Model.compile を呼び出し、エポックの境界で一時ディレクトリにチェックポイントを保存する tf.keras.callbacks.BackupAndRestore コールバックを設定します。
Model.fit でモデルのトレーニングを開始します。トレーニング中、上記でインスタンス化された tf.keras.callbacks.BackupAndRestore のおかげでチェックポイントが保存されますが、InterruptAtEpoch クラスは 4 番目のエポックの後に失敗をシミュレートするために人為的な例外を発生させます。
次に、Keras モデルをインスタンス化し、Model.compile を呼び出し、以前に保存したチェックポイントから Model.fit を使用してモデルのトレーニングを続けます。
140 番目のステップで人為的にエラーをスローする別の Callback クラスを定義します。
注意: このセクションでは、Tensorflow 2.10 がリリースされるまで tf-nightly でのみ利用可能な機能を使用します。
チェックポイントが 30 ステップごとに保存されるようにするには、BackupAndRestore コールバックの save_freq を 30 に設定します。 InterruptAtStep は、エポック 1 およびステップ 40(合計ステップ数 140)での失敗をシミュレートするために人為的な例外を発生させます。チェックポイントは、エポック 1 とステップ 20 で最後に保存されます。
次に、Keras モデルをインスタンス化し、Model.compile を呼び出し、以前に保存したチェックポイントから Model.fit を使用してモデルのトレーニングを続けます。エポック 2 とステップ 21 からトレーニングが開始されることに注意してください。
TensorFlow 2: カスタムトレーニングループを使用して手動チェックポイントを作成する
TensorFlow 2 でカスタムトレーニングループを使用する場合、tf.train.Checkpoint および tf.train.CheckpointManager API を使用してフォールトトレランスメカニズムを実装できます。
この例は、次の方法を示しています。
tf.train.Checkpointオブジェクトを使用してチェックポイントを手動で作成します。保存する追跡可能なオブジェクトが属性として設定されます。複数のチェックポイントを管理するには、
tf.train.CheckpointManagerを使用します。
Keras モデル、オプティマイザ、および損失関数を定義してインスタンス化することから始めます。次に、追跡可能な状態を持つ 2 つのオブジェクト(モデルとオプティマイザ)を管理する Checkpoint と、いくつかのチェックポイントを一時ディレクトリに記録して保持するための CheckpointManager を作成します。
ここで、新しいエポックが開始されるたびに最初のエポックの後に最後のチェックポイントが読み込まれるカスタムトレーニングループを実装します。
Next steps
TensorFlow 2 のフォールトトレランスとチェックポイントの詳細については、次のドキュメントを参照してください。
tf.keras.callbacks.BackupAndRestoreコールバック API ドキュメント。tf.train.Checkpointおよびtf.train.CheckpointManagerAPI ドキュメント。書き込みチェックポイントセクションを含むトレーニングチェックポイントガイド。
分散トレーニングに関連する次の資料も役立つ場合があります。
Keras を使用したマルチワーカートレーニングチュートリアルのフォールトトレランスセクション。
パラメータサーバーのトレーニングチュートリアルのタスクの失敗の処理セクション。
TensorFlow.org で表示
Google Colab で実行
GitHub でソースを表示
ノートブックをダウンロード