TensorFlow 2.x en TFX
TensorFlow 2.0 se publicó en 2019, con una estrecha integración de Keras, ejecución eager predeterminada y ejecución de funciones Pythónicas, entre otras nuevas características y mejoras.
Esta guía ofrece una descripción técnica completa de TF 2.x en TFX.
¿Qué versión debemos usar?
TFX es compatible con TensorFlow 2.x y las API de alto nivel que existían en TensorFlow 1.x (en particular, Estimators) continúan funcionando.
Cómo comenzar nuevos proyectos en TensorFlow 2.x
Dado que TensorFlow 2.x conserva las capacidades de alto nivel de TensorFlow 1.x, no hay ninguna ventaja en usar la versión anterior en proyectos nuevos, incluso si no planea usar las nuevas funciones.
Por lo tanto, si está comenzando un nuevo proyecto de TFX, le recomendamos que use TensorFlow 2.x. Quizás desee actualizar su código más adelante cuando esté disponible la compatibilidad completa con Keras y otras nuevas características, y el alcance de los cambios será mucho más limitado si comienza con TensorFlow 2.x, en lugar de intentar actualizar desde TensorFlow 1.x en el futuro.
Cómo convertir proyectos existentes a TensorFlow 2.x
El código escrito para TensorFlow 1.x es ampliamente compatible con TensorFlow 2.x y seguirá funcionando en TFX.
Sin embargo, si desea aprovechar las mejoras y nuevas características a medida que estén disponibles en TF 2.x, puede seguir las instrucciones para migrar a TF 2.x.
Estimator
La API Estimator se mantuvo en TensorFlow 2.x, pero no es el foco de las nuevas características ni del desarrollo. El código escrito en TensorFlow 1.x o 2.x que use instancias de Estimator seguirá funcionando como se espera en TFX.
A continuación, se muestra un ejemplo de TFX de extremo a extremo donde se usa un Estimator puro: Ejemplo de taxi (Estimator)
Keras con model_to_estimator
Los modelos de Keras se pueden envolver con la función tf.keras.estimator.model_to_estimator
, que les permite trabajar como si fueran instancias de Estimator. Para usar esto, siga estos pasos:
Compile un modelo de Keras.
Pase el modelo compilado a
model_to_estimator
.Use el resultado de
model_to_estimator
en Trainer, de la misma manera que normalmente utilizaría Estimator.
Salvo por el archivo del módulo de usuario de Trainer, el resto del proceso permanece sin cambios.
Keras nativo (es decir, Keras sin model_to_estimator
)
Nota: La plena compatibilidad con todas las características de Keras se encuentra en fase de desarrollo, en la mayoría de los casos, Keras funciona correctamente en TFX. Todavía no funciona con características dispersas para FeatureColumns.
Ejemplos y Colab
Estos son varios ejemplos con Keras nativo:
Penguin (archivo de módulo): Ejemplo de 'Hola mundo' de extremo a extremo.
MNIST (archivo de módulo): ejemplo de imagen y TFLite de extremo a extremo.
Taxi (archivo de módulo): ejemplo con uso avanzado de Transform de extremo a extremo.
También tenemos un Keras Colab por componente.
Componentes de TFX
Las siguientes secciones explican cómo los componentes de TFX relacionados admiten Keras nativo.
Transform
Actualmente, Transform ofrece compatibilidad experimental para los modelos Keras.
El componente Transform en sí se puede usar sin cambios en Keras nativos. La definición de preprocessing_fn
sigue siendo la misma y usa las operaciones TensorFlow y tf.Transform.
La función de servicio y la función de evaluación se cambian para Keras nativos. Los detalles se discutirán en las siguientes secciones de Trainer y Evaluator.
Nota: Las transformaciones dentro de preprocessing_fn
no se pueden aplicar a la función de etiqueta para entrenamiento o evaluación.
Trainer
Para configurar Keras nativo, se debe configurar GenericExecutor
para que el componente Trainer reemplace el ejecutor predeterminado basado en Estimator. Si desea obtener más información, consulte aquí.
Archivo del módulo Keras con Transform
El archivo del módulo de entrenamiento debe contener una run_fn
que será llamada por GenericExecutor
; una run_fn
típica de Keras se vería así:
En la run_fn
que se mostró anteriormente, se necesita una firma de servicio al exportar el modelo entrenado para que el modelo pueda tomar ejemplos sin procesar para la predicción. Una función de servicio típica se vería así:
En la función de servicio anterior, las transformaciones tf.Transform se deben aplicar a los datos sin procesar para hacer inferencias, con la capa tft.TransformFeaturesLayer
. La _serving_input_receiver_fn
anterior que era necesaria para las instancias de Estimator ya no será necesaria con Keras.
Archivo del módulo Keras sin Transform
Esto es similar al archivo del módulo que se muestra arriba, pero sin las transformaciones:
tf.distribute.Strategy
Por el momento, TFX solo admite estrategias de trabajador único (por ejemplo, MirroredStrategy, OneDeviceStrategy).
Para utilizar una estrategia de distribución, cree una tf.distribute.Strategy adecuada y mueva la creación y la compilación del modelo de Keras dentro del alcance de una estrategia.
Por ejemplo, reemplace model = _build_keras_model()
por:
Para verificar qué dispositivo (CPU/GPU) usa MirroredStrategy
, habilite el registro de tensorflow a nivel de información:
y debería poder ver Using MirroredStrategy with devices (...)
en el registro.
Nota: Quizás necesite la variable de entorno TF_FORCE_GPU_ALLOW_GROWTH=true
para un problema de falta de memoria de la GPU. Para obtener más información, consulte la guía de GPU de tensorflow.
Evaluator
En TFMA v0.2x, se combinaron ModelValidator y Evaluator en un único componente Evaluator nuevo. El nuevo componente Evaluator puede llevar a cabo tanto la evaluación de un solo modelo como la validación del modelo actual al compararlo con los modelos anteriores. Con este cambio, el componente Pusher ahora consume un resultado de aprobación de Evaluator en lugar de ModelValidator.
El nuevo Evaluator es compatible con modelos de Keras y Estimator. _eval_input_receiver_fn
y el modelo guardado de evaluación que se requerían anteriormente ya no serán necesarios con Keras, ya que Evaluator ahora se basa en el mismo SavedModel
que se usa para servir.