Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/es-419/lite/models/smart_reply/overview.md
25118 views

Respuesta inteligente

Empecemos

Nuestro modelo de respuesta inteligente genera sugerencias de respuesta basadas en los mensajes de chat. Las sugerencias pretenden ser respuestas contextualmente relevantes, de un solo toque, que ayuden al usuario a responder fácilmente a un mensaje entrante.

Descargue el modelo inicial

Aplicación de muestra

Existe una aplicación de muestra de TensorFlow Lite que demuestra el modelo de respuesta inteligente en Android.

Ver ejemplo en Android

Lea la página en GitHub para aprender cómo funciona la app. Dentro de este proyecto, también aprenderá a crear una app con ops personalizadas en C++.

Cómo funciona

El modelo genera sugerencias de respuesta a los mensajes del chat conversacional.

El modelo en el dispositivo tiene varias prestaciones útiles. Es:

  • Rápido: El modelo reside en el dispositivo y no requiere conectividad a Internet. Así, la inferencia es muy rápida y tiene una latencia media de sólo unos milisegundos.
  • Uso eficiente de los recursos: El modelo ocupa poco espacio de memoria en el dispositivo.
  • Respetuoso con la privacidad: los datos del usuario nunca salen del dispositivo.

Salida de ejemplo

Animación que muestra la respuesta inteligente

Más información en este tema

Usuarios