Path: blob/master/site/pt-br/addons/tutorials/optimizers_lazyadam.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
Otimizadores do TensorFlow Addons: LazyAdam
Visão geral
Este notebook demonstra como usar o otimizador lazy adam do pacote do Addons.
LazyAdam
LazyAdam é uma variante do otimizador Adam que lida com atualizações esparsas com mais eficiência. O algoritmo Adam original mantém dois acumuladores de média móvel para cada variável que pode ser treinada. Os acumuladores são atualizados a cada passo. Essa classe fornece tratamento mais lazy de atualizações de gradientes para variáveis esparsas. Ela só atualiza acumuladores de média móvel para índices de variáveis esparsas que aparecem no lote atual, em vez de atualizar os acumuladores para todos os índices. Em comparação com o otimizador Adam original, ela pode fornecer grandes melhorias no rendimento do treinamento do modelo para algumas aplicações. No entanto, ela fornece uma semântica levemente diferente do algoritmo Adam original, e pode levar a diferentes resultados empíricos.
Configuração
Crie o modelo
Prepare os dados
Treine e avalie
Basta substituir os otimizadores típicos do Keras pelo novo otimizador do tfa