Path: blob/master/site/pt-br/lite/inference_with_metadata/overview.md
25118 views
Inferência com o TensorFlow Lite usando metadados
Fazer a inferência em modelos com metadados pode ser fácil, bastando algumas linhas de código. Os metadados do TensorFlow Lite contêm uma boa descrição do que o modelo faz e de como usá-lo. Com eles, os geradores de código podem gerar automaticamente o código de inferência para você, como ao usar o recurso Android Studio ML Binding ou o gerador de código do TensorFlow Lite para Android. Além disso, podem ser usados para configurar seu pipeline de inferência personalizado.
Ferramentas e bibliotecas
O TensorFlow Lite conta com diversas ferramentas e bibliotecas para atender a diferentes requisitos de implantação:
Gere a interface do modelo com os geradores de código para Android
Existem duas formas de gerar automaticamente o código encapsulador para Android necessário para um modelo do TensorFlow Lite com metadados:
Android Studio ML Model Binding é uma ferramenta disponível no Android Studio para importar um modelo do TensorFlow Lite por meio de uma interface gráfica. O Android Studio vai definir automaticamente as configurações do projeto e gerar classes encapsuladoras com base nos metadados do modelo.
O gerador de código do TensorFlow Lite é um arquivo executável que gera automaticamente a interface do modelo com base nos metadados. No momento, oferece suporte apenas ao Android em Java. O código encapsulador remove a necessidade de interagir diretamente com o
ByteBuffer
. Em vez disso, os desenvolvedores podem interagir com o modelo do TensorFlow Lite com objetos tipados, comoBitmap
eRect
. Além disso, os usuários do Android Studio também têm acesso ao recurso codegen por meio do Android Studio ML Binding.
Use as APIs integradas da TensorFlow Lite Task Library
A TensorFlow Lite Task Library fornece interfaces de modelo prontas para uso e otimizadas para tarefas de aprendizado de máquina populares, como classificação de imagens, pergunta e resposta, etc. As interfaces de modelo são criadas especialmente para cada tarefa alcançar o melhor desempenho e usabilidade. A biblioteca de tarefas funciona em várias plataformas e é compatível com o Java, C++ e Swift.
Crie pipelines de inferência personalizados com a TensorFlow Lite Support Library
A TensorFlow Lite Support Library é uma biblioteca interplataforma que ajuda a personalizar a interface do modelo e a criar pipelines de inferência. Ela contém diversos métodos utilitários e estruturas de dados para fazer pré e pós-processamento, além de conversão de dados. Além disso, tem o mesmo comportamento de módulos do TensorFlow, como TF.Image e TF.Text, garantindo a consistência do treinamento à inferência.
Confira modelos pré-treinados com metadados
Navegue pelos modelos hospedados do TensorFlow Lite e pelo TensorFlow Hub para baixar modelos pré-treinados com metadados para tarefas de visão e texto. Além disso, veja diferentes opções de visualização dos metadados.
Repositório da TensorFlow Lite Support no GitHub
Acesse o repositório da TensorFlow Lite Support no GitHub para ver mais exemplos e código-fonte. Para fornecer feedback, crie um novo issue no GitHub.