Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/ja/guide/migrate/migrating_estimator.ipynb
25118 views
Kernel: Python 3
#@title Licensed under the Apache License, Version 2.0 (the "License"); # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # https://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an "AS IS" BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License.

このガイドでは、TensorFlow 1 の tf.estimator.Estimator API から TensorFlow 2 の tf.keras API に移行する方法を示します。最初に、tf.estimator.Estimator を使用してトレーニングと評価のための基本モデルをセットアップして実行します。次に、tf.keras API を使用して TensorFlow 2 で同等の手順を実行します。また、tf.GradientTape をサブクラス化し、tf.keras.Model を使用してトレーニングの手順をカスタマイズする方法も学びます。

  • TensorFlow 1 では、高レベルの tf.estimator.Estimator API を使用して、モデルのトレーニングと評価、推論の実行、およびモデルの保存(提供用)を行うことができます。

  • TensorFlow 2 では、Keras API を使用して、モデルの構築、勾配の適用、 トレーニング、評価、予測などの前述のタスクを実行します。

(モデル/チェックポイント保存ワークフローを TensorFlow 2 に移行するには、SavedModel および Checkpoint 移行ガイドを確認してください。)

セットアップ

インポートと単純なデータセットから始めます。

import tensorflow as tf import tensorflow.compat.v1 as tf1
features = [[1., 1.5], [2., 2.5], [3., 3.5]] labels = [[0.3], [0.5], [0.7]] eval_features = [[4., 4.5], [5., 5.5], [6., 6.5]] eval_labels = [[0.8], [0.9], [1.]]

TensorFlow 1: tf.estimator.Estimator でトレーニングと評価を行う

この例では、TensorFlow 1 で tf.estimator.Estimator を使用してトレーニングと評価を実行する方法を示します。

いくつかの関数を定義することから始めます。トレーニングデータの入力関数、評価データの評価入力関数、および特徴量とラベルを使用してトレーニング演算がどのように定義されるかを Estimator に伝えるモデル関数です。

def _input_fn(): return tf1.data.Dataset.from_tensor_slices((features, labels)).batch(1) def _eval_input_fn(): return tf1.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) def _model_fn(features, labels, mode): logits = tf1.layers.Dense(1)(features) loss = tf1.losses.mean_squared_error(labels=labels, predictions=logits) optimizer = tf1.train.AdagradOptimizer(0.05) train_op = optimizer.minimize(loss, global_step=tf1.train.get_global_step()) return tf1.estimator.EstimatorSpec(mode, loss=loss, train_op=train_op)

Estimator をインスタンス化し、モデルをトレーニングします。

estimator = tf1.estimator.Estimator(model_fn=_model_fn) estimator.train(_input_fn)

評価セットを使用してプログラムを評価します。

estimator.evaluate(_eval_input_fn)

TensorFlow 2: 組み込みの Keras メソッドを使用してトレーニングと評価を行う

この例では、TensorFlow 2 で Keras Model.fitModel.evaluate を使用してトレーニングと評価を実行する方法を示します(詳細については、組み込みメソッドを使用したトレーニングと評価ガイドを参照してください)。

  • tf.data.Dataset API を使用してデータセットパイプラインを準備することから始めます。

  • 1 つの線形(tf.keras.layers.Dense)レイヤーを持つ単純な Keras Sequential モデルを定義します。

  • Adagrad オプティマイザをインスタンス化します(tf.keras.optimizers.Adagrad)。

  • optimizer 変数と平均二乗誤差("mse")損失を Model.compile に渡して、トレーニング用のモデルを構成します。

dataset = tf.data.Dataset.from_tensor_slices((features, labels)).batch(1) eval_dataset = tf.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) model = tf.keras.models.Sequential([tf.keras.layers.Dense(1)]) optimizer = tf.keras.optimizers.Adagrad(learning_rate=0.05) model.compile(optimizer=optimizer, loss="mse")

これで、Model.fit を呼び出してモデルをトレーニングする準備が整いました。

model.fit(dataset)

最後に、Model.evaluate を使用してモデルを評価します。

model.evaluate(eval_dataset, return_dict=True)

TensorFlow 2: カスタムトレーニングステップと組み込みの Keras メソッドを使用してトレーニングと評価を行う

TensorFlow 2 では、tf.keras.callbacks.Callbacktf.distribute.Strategy などの組み込みのトレーニングサポートを引き続き利用しながら、tf.GradientTape を使用して独自のカスタムトレーニングステップ関数を作成して、フォワードパスとバックワードパスを実行することもできます。(詳細については、Model.fit の処理をカスタマイズするおよびトレーニングループの新規作成を参照してください。)

この例では、tf.keras.Sequential をオーバーライドする Model.train_step をサブクラス化することにより、カスタム tf.keras.Model を作成することから始めます。(tf.keras.Model のサブクラス化について詳しくご覧ください)。そのクラス内で、データのバッチごとに 1 つのトレーニングステップでフォワードパスとバックワードパスを実行するカスタムの train_step 関数を定義します。

class CustomModel(tf.keras.Sequential): """A custom sequential model that overrides `Model.train_step`.""" def train_step(self, data): batch_data, labels = data with tf.GradientTape() as tape: predictions = self(batch_data, training=True) # Compute the loss value (the loss function is configured # in `Model.compile`). loss = self.compiled_loss(labels, predictions) # Compute the gradients of the parameters with respect to the loss. gradients = tape.gradient(loss, self.trainable_variables) # Perform gradient descent by updating the weights/parameters. self.optimizer.apply_gradients(zip(gradients, self.trainable_variables)) # Update the metrics (includes the metric that tracks the loss). self.compiled_metrics.update_state(labels, predictions) # Return a dict mapping metric names to the current values. return {m.name: m.result() for m in self.metrics}

次に、前と同じように以下を実行します。

  • tf.data.Dataset でデータセットパイプラインを準備します。

  • 1 つの tf.keras.layers.Dense レイヤーで単純なモデルを定義します。

  • Adagrad のインスタンス化(tf.keras.optimizers.Adagrad

  • 損失関数として平均二乗誤差("mse")を使用しながら、Model.compile でトレーニング用のモデルを構成します。

dataset = tf.data.Dataset.from_tensor_slices((features, labels)).batch(1) eval_dataset = tf.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) model = CustomModel([tf.keras.layers.Dense(1)]) optimizer = tf.keras.optimizers.Adagrad(learning_rate=0.05) model.compile(optimizer=optimizer, loss="mse")

Model.fit を呼び出してモデルをトレーニングします。

model.fit(dataset)

最後に、Model.evaluate を使用してプログラムを評価します。

model.evaluate(eval_dataset, return_dict=True)