Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/pt-br/guide/migrate/migrating_estimator.ipynb
25118 views
Kernel: Python 3
#@title Licensed under the Apache License, Version 2.0 (the "License"); # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # https://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an "AS IS" BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License.

Este guia demonstra como migrar das APIs tf.estimator.Estimator do TensorFlow 1 para as APIs tf.keras do TensorFlow 2. Primeiro, você configurará e executará um modelo básico para treinamento e avaliação com tf.estimator.Estimator. Em seguida, você executará as etapas equivalentes no TensorFlow 2 com as APIs tf.keras. Você também aprenderá como personalizar a etapa de treinamento criando uma subclasse de tf.keras.Model e usando tf.GradientTape.

  • No TensorFlow 1, as APIs tf.estimator.Estimator de alto nível permitem que você treine e avalie um modelo, além de realizar inferências e salvar seu modelo (para servir).

  • No TensorFlow 2, use as APIs Keras para executar as tarefas mencionadas acima, como construção de modelo, aplicação de gradiente, treinamento, avaliação e previsão.

(Para migrar workflows de salvamento de modelo/checkpoint para o TensorFlow 2, confira os guias de migração SavedModel e Checkpoint.)

Configuração

Comece com imports e um dataset simples:

import tensorflow as tf import tensorflow.compat.v1 as tf1
features = [[1., 1.5], [2., 2.5], [3., 3.5]] labels = [[0.3], [0.5], [0.7]] eval_features = [[4., 4.5], [5., 5.5], [6., 6.5]] eval_labels = [[0.8], [0.9], [1.]]

TensorFlow 1: treine e avalie com tf.estimator.Estimator

Este exemplo mostra como realizar treinamento e avaliação com tf.estimator.Estimator no TensorFlow 1.

Comece definindo algumas funções: uma função de entrada para os dados de treinamento, uma função de entrada de avaliação para os dados de avaliação e uma função de modelo que informa ao Estimator como a operação de treinamento é definida com as características e rótulos:

def _input_fn(): return tf1.data.Dataset.from_tensor_slices((features, labels)).batch(1) def _eval_input_fn(): return tf1.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) def _model_fn(features, labels, mode): logits = tf1.layers.Dense(1)(features) loss = tf1.losses.mean_squared_error(labels=labels, predictions=logits) optimizer = tf1.train.AdagradOptimizer(0.05) train_op = optimizer.minimize(loss, global_step=tf1.train.get_global_step()) return tf1.estimator.EstimatorSpec(mode, loss=loss, train_op=train_op)

Instancie seu Estimator e treine o modelo:

estimator = tf1.estimator.Estimator(model_fn=_model_fn) estimator.train(_input_fn)

Avalie o programa com o dataset de avaliação:

estimator.evaluate(_eval_input_fn)

TensorFlow 2: treine e avalie com os métodos Keras integrados

Este exemplo demonstra como realizar treinamento e avaliação com Keras Model.fit e Model.evaluate no TensorFlow 2. (Saiba mais no guia Treinamento e avaliação com métodos integrados).

  • Comece preparando o pipeline do dataset com as APIs tf.data.Dataset.

  • Defina um modelo Keras Sequential simples com uma camada linear (tf.keras.layers.Dense).

  • Crie uma instância de um otimizador Adagrad (tf.keras.optimizers.Adagrad).

  • Configure o modelo para treinamento passando a variável optimizer e a perda do erro quadrático médio ("mse") para Model.compile.

dataset = tf.data.Dataset.from_tensor_slices((features, labels)).batch(1) eval_dataset = tf.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) model = tf.keras.models.Sequential([tf.keras.layers.Dense(1)]) optimizer = tf.keras.optimizers.Adagrad(learning_rate=0.05) model.compile(optimizer=optimizer, loss="mse")

Com isto, você está pronto para treinar o modelo chamando Model.fit:

model.fit(dataset)

Finalmente, avalie o modelo com Model.evaluate:

model.evaluate(eval_dataset, return_dict=True)

TensorFlow 2: treine e avalie com uma etapa de treinamento personalizada e métodos Keras integrados

No TensorFlow 2, você também pode escrever sua própria função de passo de treinamento personalizada com tf.GradientTape para executar passos para frente e para trás, enquanto aproveita o suporte de treinamento integrado, como tf.keras.callbacks.Callback e tf.distribute.Strategy. (Saiba mais em Personalizando o que acontece no Model.fit e Escrevendo loops de treinamento personalizados do zero.)

Neste exemplo, comece criando um tf.keras.Model personalizado criando uma subclasse de tf.keras.Sequential que substitui Model.train_step. (Saiba mais sobre subclasses tf.keras.Model). Dentro dessa classe, defina uma função train_step personalizada que, para cada lote de dados, execute um passo para frente e um passo para trás durante uma etapa de treinamento.

class CustomModel(tf.keras.Sequential): """A custom sequential model that overrides `Model.train_step`.""" def train_step(self, data): batch_data, labels = data with tf.GradientTape() as tape: predictions = self(batch_data, training=True) # Compute the loss value (the loss function is configured # in `Model.compile`). loss = self.compiled_loss(labels, predictions) # Compute the gradients of the parameters with respect to the loss. gradients = tape.gradient(loss, self.trainable_variables) # Perform gradient descent by updating the weights/parameters. self.optimizer.apply_gradients(zip(gradients, self.trainable_variables)) # Update the metrics (includes the metric that tracks the loss). self.compiled_metrics.update_state(labels, predictions) # Return a dict mapping metric names to the current values. return {m.name: m.result() for m in self.metrics}

Em seguida, como antes:

  • Prepare o pipeline do dataset com tf.data.Dataset.

  • Defina um modelo simples com uma camada tf.keras.layers.Dense.

  • Instancie o Adagrad (tf.keras.optimizers.Adagrad)

  • Configure o modelo para treinamento com Model.compile, enquanto usa o erro quadrático médio ("mse") como função de perda.

dataset = tf.data.Dataset.from_tensor_slices((features, labels)).batch(1) eval_dataset = tf.data.Dataset.from_tensor_slices( (eval_features, eval_labels)).batch(1) model = CustomModel([tf.keras.layers.Dense(1)]) optimizer = tf.keras.optimizers.Adagrad(learning_rate=0.05) model.compile(optimizer=optimizer, loss="mse")

Chame Model.fit para treinar o modelo:

model.fit(dataset)

E, finalmente, avalie o programa com Model.evaluate:

model.evaluate(eval_dataset, return_dict=True)