Path: blob/master/site/es-419/addons/tutorials/average_optimizers_callback.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
Descripción general
En este bloc de notas de muestra cómo usar el Moving Average Optimizer (optimizador de promedio móvil) junto con el Model Average Checkpoint (punto de verificación del promedio de modelos) del paquete de complementos de TensorFlow.
Promedio móvil
La ventaja del promedio móvil es que son menos propensos a cambios incontrolables de pérdidas o a una representación irregular de datos en el último lote. Da una idea más fluida y general del entrenamiento del modelo hasta cierto punto.
Promedio estocástico
El Stochastic Weight Averaging (promedio de peso estocástico, SWA) converge en óptimos más amplios. Al hacerlo, se asemeja a un conjunto geométrico. El SWA es un método simple para mejorar el rendimiento del modelo cuando se usa como contenedor de otros optimizadores y promedia los resultados de diferentes puntos de la trayectoria del optimizador interno.
Punto de verificación promedio del modelo
callbacks.ModelCheckpoint
no da la opción de guardar pesos promedio móviles a la mitad del entrenamiento, por esa razón los Model Average Optimizers (optimizadores de promedio del modelo) solicitaron una retrollamada personalizada. Mediante el uso del parámetroupdate_weights
,ModelAverageCheckpoint
le permite:
Asignar los pesos de promedio móvil al modelo y guardarlos.
Mantener los pesos antiguos no promediados, pero que el modelo guardado use los pesos promedio.
Preparación
Construir el modelo
Preparar el conjunto de datos
Aquí comparamos tres optimizadores:
SGD (Stochastic gradient descent [descenso de gradiente estocástico]) sin contenedor
SGD con promedio móvil
SGD con promedio de peso estocástico
Y a continueación puede observar cómo se desempeñan con el mismo modelo.
Tanto el optimizador MovingAverage
como el StochasticAverage
usan ModelAverageCheckpoint
.