Path: blob/master/site/es-419/lite/guide/authoring.ipynb
25118 views
Copyright 2021 The TensorFlow Authors.
Herramienta de autoría TFLite
La API de autoría de TensorFlow Lite proporciona una forma de mantener sus modelos tf.function
compatibles con TensorFlow Lite.
Configurar
Problema de compatibilidad entre TensorFlow y TensorFlow Lite
Si desea usar su modelo TF en dispositivos, necesita convertirlo a un modelo TFLite para poder usarlo desde el intérprete TFLite. Durante la conversión, podría encontrarse con un error de compatibilidad debido a ops de TensorFlow no admitidas por el conjunto de ops incorporadas de TFLite.
Se trata de una cuestión un tanto molesta. ¿Cómo se puede detectar antes, como en el momento de la creación del modelo?
Tenga en cuenta que el siguiente código fallará en la llamada converter.convert()
.
Uso sencillo de la autoría consciente del objetivo
Hemos implantado la API de autoría para detectar el problema de compatibilidad con TensorFlow Lite en el momento de la creación del modelo.
Sólo tiene que añadir el decorador @tf.lite.experimental.authoring.compatible
para encapsular su modelo tf.function
para comprobar la compatibilidad con TFLite.
Después de esto, la compatibilidad se comprobará automáticamente cuando evalúe su modelo.
Si se encuentra algún problema de compatibilidad con TensorFlow Lite, aparecerá COMPATIBILITY WARNING
o COMPATIBILITY ERROR
con la localización exacta de la op problemática. En este ejemplo, muestra la ubicación de tf.Cosh
op en su modelo tf.function.
También puede verificar el registro de compatibilidad con el método <function_name>.get_compatibility_log()
.
Lanzar una excepción por incompatibilidad
Puede dar una opción al decorador @tf.lite.experimental.authoring.compatible
. La opción raise_exception
emite una excepción cuando se intenta evaluar el modelo decorado.
Especificación del uso de "Select TF ops"
Si ya conoce el uso de Select TF ops, puede indicárselo a la API de creación configurando converter_target_spec
. Es el mismo objeto tf.lite.TargetSpec que usará para la API tf.lite.TFLiteConverter.
Comprobar la compatibilidad de la GPU
Si quiere asegurarse de que su modelo es compatible con el delegado GPU de TensorFlow Lite, puede configurar experimental_supported_backends
de tf.lite.TargetSpec.
El siguiente ejemplo muestra cómo garantizar la compatibilidad de su modelo con los delegados de la GPU. Tenga en cuenta que este modelo tiene problemas de compatibilidad ya que usa un tensor 2D con el operador tf.slice y el operador tf.cosh no soportado. Verá dos COMPATIBILITY WARNING
con la información de localización.
Más información
Para más información, consulte: