Path: blob/master/site/es-419/hub/tutorials/bert_experts.ipynb
25118 views
Copyright 2020 The TensorFlow Hub Authors.
Licensed under the Apache License, Version 2.0 (the "License");
Expertos en BERT de TF-Hub
En este Colab se muestra cómo hacer lo siguiente:
Cargar modelos BERT de TensorFlow Hub que hayan sido entrenados con tareas diferentes, incluidas MNLI, SQuAD y PubMed.
Usar un modelo de preprocesamiento de coincidencias para tokenizar el texto en bruto y convertirlo en los ID.
Generar la salida agrupada y secuencial desde los ide de entrada del token, con el modelo cargado.
Buscar la similitud semántica de las salidas agrupadas de diferentes oraciones.
Nota: Este Colab se debería ejecutar con un tiempo de ejecución de GPU.
Preparación e importaciones
Oraciones
Para ejecutar el modelo, tomemos algunas oraciones de Wikipedia:
Ejecución del modelo
Cargamos el modelo BERT de TF-Hub, tokenizamos las oraciones con el modelo de preprocesamiento de coincidencias de TF-Hub, después ingresamos las oraciones tokenizadas al modelo. Para que este Colab siga siendo rápido y simple, recomendamos ejecutarlo en GPU.
Vaya a Runtime → Change runtime type (Tiempo de ejecución → Cambiar tipo de tiempo de ejecución) para confirmar que GPU haya sido seleccionada.
Similitudes semánticas
Ahora, echemos un vistazo a las incorporaciones de nuestras oraciones en pooled_output
y comparemos qué similitudes tienen con las oraciones.
Más información
Acceda a más información sobre modelos BERT en TensorFlow Hub
En este bloc de notas se demuestra una inferencia simple con BERT, encontrará un tutorial más avanzado sobre el ajuste fino con BERT en tensorflow.org/official_models/fine_tuning_bert
Usamos un solo chip de GPU para ejecutar el modelo. Para más información sobre cómo cargar modelos con f.distribute, consulte tensorflow.org/tutorials/distribute/save_and_load