Path: blob/master/site/es-419/addons/tutorials/optimizers_lazyadam.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
Optimizadores de complementos de TensorFlow: LazyAdam
Descripción general
En este bloc de notas se explica cómo usar el optimizador LazyAdam del paquete de complementos.
LazyAdam
LazyAdam es una variante del optimizador Adam que gestiona las actualizaciones dispersas de forma más eficiente. El algoritmo Adam original dispone de dos acumuladores de medias móviles para cada variable entrenable; los acumuladores se actualizan en cada paso. Esta clase proporciona un manejo más flexible de las actualizaciones de gradiente para variables dispersas. Solo actualiza los acumuladores de medias móviles para los índices de variables dispersas que aparecen en el lote actual, en lugar de actualizar los acumuladores para todos los índices. Si se compara con el optimizador Adam original, ofrece grandes mejoras en el rendimiento del entrenamiento de modelos para algunas aplicaciones. No obstante, su semántica es ligeramente distinta a la del algoritmo Adam original y puede dar lugar a resultados empíricos diferentes.
Preparación
Generación del modelo
Preparación de los datos
Entrenamiento y evaluación
Sencillamente reemplace los optimizadores típicos de keras por el nuevo optimizador de tfa