Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/es-419/lite/guide/roadmap.md
25118 views

Hoja de ruta de TensorFlow Lite

Actualizado: Mayo de 2021

A continuación se incluye una visión general de alto nivel de nuestra hoja de ruta. Debe tener en cuenta que esta hoja de ruta puede cambiar en cualquier momento y que el orden que figura a continuación no refleja ningún tipo de prioridad.

Dividimos nuestra hoja de ruta en cuatro segmentos clave: usabilidad, rendimiento, optimización y portabilidad. Le animamos encarecidamente a que analice nuestra hoja de ruta y nos dé su retroalimentación en el grupo de conversación TensorFlow Lite.

Usabilidad

  • Cobertura de ops ampliada

    • Añadir ops específicas basadas en la retroalimentación de los usuarios.

    • Añadir conjuntos de ops dirigidos a dominios y áreas específicos, incluyendo ops aleatorias, ops de la capa Keras base, tablas hash, ops de entrenamiento seleccionadas.

  • Más herramientas de asistencia

    • Dar anotaciones de grafos TensorFlow y herramientas de compatibilidad para validar la compatibilidad de TFLite y de los aceleradores de hardware durante el entrenamiento y después de la conversión.

    • Permitir la focalización y optimización para aceleradores específicos durante la conversión.

  • Capacitación en el dispositivo

    • Admitir entrenamiento en el dispositivo para la personalización y el aprendizaje por transferencia, incluido un Colab que demuestre el uso de principio a fin.

    • Admitir tipos de variables/recursos (tanto para la inferencia como para el entrenamiento)

    • Admita la conversión y ejecución de grafos con múltiples puntos de entrada de funciones (o firmas).

  • Integración mejorada de Android Studio

    • Arrastrar y soltar los modelos TFLite en Android Studio para generar interfaces de modelo.

    • Mejorar el soporte de perfilado de Android Studio, incluido el perfilado de memoria.

  • Model Maker

    • Admitir tareas más novedosas, como la detección de objetos, la recomendación y la clasificación de audio, abarcando una amplia recopilación de uso común.

    • Admitir más conjuntos de datos para facilitar el aprendizaje por transferencia.

  • Librería de tareas

    • Admitir más tipos de modelos (por ejemplo, audio, PNL) con capacidades asociadas de preprocesamiento y postprocesamiento.

    • Actualizar más ejemplos de referencia con las API de tareas.

    • Admitir la aceleración inmediata para todas las tareas.

  • Más modelos y ejemplos de SOTA

    • Añadir más ejemplos (por ejemplo, de audio, PNL, relacionados con datos estructurales) para demostrar el uso del modelo, así como nuevas funciones y API, que abarquen distintas plataformas.

    • Cree modelos de backbone compartibles para dispositivos con el fin de reducir los costes de entrenamiento e implementación.

  • Implementación sin fisuras en múltiples plataformas

    • Ejecutar modelos TensorFlow Lite en la web.

  • Soporte multiplataforma mejorado

    • Ampliar y mejorar las API para Java en Android, Swift en iOS, Python en RPi.

    • Mejorar el soporte de CMake (por ejemplo, mayor soporte de aceleradores).

  • Mejor soporte de frontend

    • Mejorar la compatibilidad con varios frontends de autoría, incluyendo Keras, tf.numpy.

Rendimiento

  • Mejores herramientas

    • Panel de control público para dar seguimiento a las mejoras de rendimiento con cada versión.

    • Herramientas para comprender mejor la compatibilidad de los grafos con los aceleradores objetivo.

  • Rendimiento mejorado de la CPU

    • XNNPack habilitado de forma predeterminada para una inferencia en coma flotante más rápida.

    • Compatible con precisión media (float16) de extremo a extremo con kernels optimizados.

  • Soporte actualizado de NNAPI

    • Compatibilidad total con las funciones, ops y tipos de NNAPI de la versión más reciente de Android.

  • Optimizaciones de la GPU

    • Se ha mejorado el tiempo de inicio gracias a la compatibilidad con la serialización de delegados.

    • Interoperabilidad del búfer de hardware para la inferencia de copia cero.

    • Mayor disponibilidad de la aceleración en el dispositivo.

    • Mejor cobertura de op.

Optimización

  • Cuantización

    • Cuantización selectiva postentrenamiento para excluir ciertas capas de la cuantización.

    • Depurador de cuantización para inspeccionar las pérdidas por error de cuantización en cada capa.

    • Aplicar un entrenamiento que tenga en cuenta la cuantización en una mayor cobertura de modelos, por ejemplo, TensorFlow Model Garden.

    • Mejoras en la calidad y el rendimiento de la cuantización de rango dinámico posterior al entrenamiento.

    • API de compresión tensorial para permitir algoritmos de compresión como SVD.

  • Poda / dispersión

    • Combinar API configurables en tiempo de entrenamiento (poda + entrenamiento consciente de la cuantización).

    • Aumentar la aplicación de la dispersión en los modelos TF Model Garden.

    • Soporte de ejecución de modelos dispersos en TensorFlow Lite.

Portabilidad

  • Soporte de microcontroladores

    • Añadir soporte para una serie de casos de uso de la arquitectura MCU de 32 bits para la clasificación de voz e imágenes.

    • Frontend de audio: Preprocesamiento de audio en el grafo y soporte de aceleración

    • Código de muestra y modelos para datos de visión y audio.