Path: blob/master/site/es-419/lite/guide/python.md
25118 views
Inicio rápido para dispositivos basados en Linux con Python
Usar TensorFlow Lite con Python es estupendo para dispositivos embebidos basados en Linux, como Raspberry Pi{:.external} y Dispositivos Coral con Edge TPU{:.external}, entre muchos otros.
Esta página muestra cómo puede empezar a ejecutar modelos TensorFlow Lite con Python en sólo unos minutos. Todo lo que necesita es un modelo TensorFlow convertido a TensorFlow Lite. (Si aún no tiene un modelo convertido, puede experimentar usando el modelo que se incluye con el ejemplo enlazado a continuación).
Acerca del paquete runtime de TensorFlow Lite
Para empezar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar sólo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete Python simplificado tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del paquete completo tensorflow
e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite-principalmente la clase de Python Interpreter
. Este pequeño paquete es ideal cuando lo único que se desea es ejecutar modelos .tflite
y evitar malgastar espacio en disco con la enorme librería TensorFlow.
Nota: Si necesita acceder a otras APIs de Python, como el Convertidor de TensorFlow Lite, debe instalar el paquete completo de TensorFlow. Por ejemplo, las [ops de TensorFlow seleccionadas] (https://www.tensorflow.org/lite/guide/ops_select) no están incluidas en el paquete tflite_runtime
.Si sus modelos tienen alguna dependencia con las ops de TF seleccionadas, deberá usar en su lugar el paquete TensorFlow completo.
Instale TensorFlow Lite para Python
Puede instalarlo en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las wheels Python tflite-runtime
están precompiladas y se proporcionan para estas plataformas:
Linux armv7l (por ejemplo, Raspberry Pi 2, 3, 4 y Zero 2 con Raspberry Pi OS de 32 bits)
Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 ejecutando Debian ARM64)
Linux x86_64
Si desea ejecutar modelos TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow, o compilar el paquete tflite-runtime a partir del código fuente.
Si está usando TensorFlow con la TPU Coral Edge, deberá seguir en su lugar la documentación apropiada de configuración de Coral.
Nota: Ya no actualizamos el paquete Debian python3-tflite-runtime
. El último paquete Debian es para la versión 2.5 de TF, que puede instalar siguiendo estas instrucciones más antiguas.
Nota: Ya no publicamos wheels tflite-runtime
precompiladas para Windows y macOS. Para estas plataformas, debe usar el paquete completo de TensorFlow, o compilar el paquete tflite-runtime desde el código fuente.
Ejecutar una inferencia usando tflite_runtime
En lugar de importar Interpreter
del módulo tensorflow
, ahora deberá importarlo de tflite_runtime
.
Por ejemplo, después de instalar el paquete mencionado, copie y ejecute el archivo label_image.py
. Mandará un error (probablemente) porque no tiene instalada la librería tensorflow
. Para solucionarlo, edite esta línea del archivo:
para que en su lugar diga:
Y luego cambie esta línea:
para que diga:
Ahora ejecute de nuevo label_image.py
. Listo. Ya está ejecutando modelos TensorFlow Lite.
Más información
Para más detalles sobre la API
Interpreter
, lea Cargar y ejecutar un modelo en Python.Si tiene una Raspberry Pi, consulte una serie de vídeos sobre cómo ejecutar la detección de objetos en Raspberry Pi usando TensorFlow Lite.
Si usa un acelerador Coral ML, revise los ejemplos de Coral en GitHub.
Para convertir otros modelos TensorFlow a TensorFlow Lite, lea sobre el Conversor de TensorFlow Lite.
Si desea generar la wheel
tflite_runtime
, lea Generar el paquete de la wheel Python de TensorFlow Lite.