Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/pt-br/federated/collaborations/notes/2022-09-22.md
25118 views

Notas do encontro dos colaboradores do TFF em 22/09/2022

  • [Ajay Kannan, Michael Reneer] Gerenciamento de controle de versões/dependências

    • Proposta do LinkedIn

    • [Michael] Duas preocupações

      • Versões do TF e Python das quais o TFF depende

      • Python – Podemos ter suporte a versões antigas e novas

      • Temos suporte à versão 3.9 por enquanto e, em breve, à 3.10

    • [A] Posso negociar versões específicas – Vamos discutir

    • [M] Por que a versão 3.9

      • Principalmente pelo pytype

      • Podem ser outros recursos, pode ter flag-guarding

    • (Muito debate sobre os aspectos práticos, não tomei notas)

    • Resolução/itens de ação:

      • TFF vai fazer o downgrade da versão do software de código aberto para os aspectos que funcionam

      • Michael vai coordenar o downgrade com Ajay, Ajay vai testar o que funciona

      • Versão revisada da proposta em breve

      • Precisamos de um sistema para atualizar periodicamente a “versão de downgrade” para garantir que continue avançando

      • Ajay, Michael vão propor uma programação de upgrade

      • Revisão assíncrona do esboço, a ser apresentado na próxima vez

  • [Tong Zhou et al.] Discussão sobre experimentos/descobertas sobre escalabilidade

    • Perguntas sobre o TFF

    • [Tong] Pergunta sobre o tamanho esperado das rodadas do TFF

      • O tempo extra não parece ser gasto no passo para frente ou retropropagação

      • Suspeita de agregação

      • Não é surpresa que o desempenho do TFF versus Keras coincide para uma única rodada

        • A leitura de dados não é um fator

        • Todo o tempo é do TF

      • A ingestão de dados é um possível suspeito, é preciso mensurar melhor

        • A sobreposição da ingestão de dados e do processamento é um dos fatores

        • De forma geral, são perdidas oportunidades de otimização quando as rodadas de treinamento são O(segundos)

      • Há suporte no TFF para pré-busca/pré-processamento de dados K rodadas antes do treinamento

        • APIs usadas no tutorial são síncronas, mas o caso assíncrono e criação de pipelines estão disponíveis de forma nativa e integrada no runtime do TFF

        • Código relevante no software de código aberto, só não muito bem exposto para uso

        • Parece que isso poderia resolver o problema – a testar

      • AI da equipe do TFF vai sugerir links de como configurar a ingestão e o pré-processamento K rodadas com antecedência

      • Tong vai fazer novos experimentos

  • Próximo encontro assíncrono possivelmente em uma semana

  • Daremos seguimento de forma interativa no Discord