Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/pt-br/lite/guide/python.md
25118 views

Guia de início rápido para dispositivos Linux com Python

Usar o TensorFlow Lite com o Python é excelente para dispositivos Linux embarcados, como Raspberry Pi{:.external} e dispositivos Coral com Edge TPU{:.external}, entre muitos outros

Esta página mostra como começar a executar modelos do TensorFlow Lite com o Python em questão de minutos. Você só precisa de um modelo do TensorFlow convertido para o TensorFlow Lite (caso você ainda não tenha um modelo convertido, pode usar o modelo fornecido no exemplo indicado abaixo).

Sobre o pacote de runtime do TensorFlow Lite

Para começar rapidamente a executar modelos do TensorFlow Lite com o Python, você pode instalar apenas o interpretador do TensorFlow Lite, em vez de todos os pacotes do TensorFlow. Esse pacote Python simplificado é chamado de tflite_runtime.

O pacote tflite_runtime tem uma fração do tamanho do pacote completo tensorflow e inclui o código mínimo necessário para executar inferências com o TensorFlow Lite, principalmente a classe do Python Interpreter. Esse pacote pequeno é ideal quando você só quer executar modelos .tflite e evitar o desperdício de espaço em disco com a biblioteca grande do TensorFlow.

Observação: se você precisar de acesso a outras APIs do Python, como TensorFlow Lite Converter (conversor do TF Lite), precisa instalar o pacote completo do TensorFlow. Por exemplo: as operações específicas do TF (https://www.tensorflow.org/lite/guide/ops_select) não estão incluídas no pacote tflite_runtime. Se os seus modelos tiverem dependências para alguma operação específica do TF, você precisará usar o pacote completo do TensorFlow.

Instale o TensorFlow Lite para Python

É possível instalar no Linux pelo pip:


python3 -m pip install tflite-runtime

Plataformas com suporte

Os Wheels do Python tflite-runtime são pré-compilados e fornecidos para estas plataformas:

  • Linux armv7l (por exemplo: Raspberry Pi 2, 3, 4 e Zero 2 com Raspberry Pi OS de 32 bits)

  • Linux aarch64 (por exemplo: Raspberry Pi 3, com Debian ARM64)

  • Linux x86_64

Se você quiser executar modelos do TensorFlow Lite em outras plataformas, deve usar o pacote completo do TensorFlow ou compilar o pacote tflite-runtime a partir do código-fonte.

Se você estiver usando o TensorFlow com Coral Edge TPU, deve seguir a documentação de configuração do Coral.

Observação: não atualizamos mais o pacote Debian python3-tflite-runtime. O último pacote Debian é para o TF versão 2.5, que você pode instalar seguindo estas instruções antigas.

Observação: não lançamos mais Wheels tflite-runtime pré-compilados para Windows e macOS. Para essas plataformas, você deve usar o pacote completo do TensorFlow ou compilar o pacote tflite-runtime a partir do código-fonte.

Execute uma inferência usando o tflite_runtime

Em vez de importar Interpreter do módulo tensorflow, agora você precisa importá-lo do tflite_runtime.

Por exemplo: após instalar o pacote acima, copie e execute o arquivo label_image.py. Provavelmente, haverá uma falha, pois a biblioteca tensorflow não está instalada. Para corrigir esse problema, edite esta linha do arquivo:

import tensorflow as tf

Para:

import tflite_runtime.interpreter as tflite

E altere esta linha

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Para:

interpreter = tflite.Interpreter(model_path=args.model_file)

Agora, execute label_image.py novamente. Pronto! Agora, você está executando modelos do TensorFlow Lite.

Saiba mais