Path: blob/master/site/pt-br/hub/tutorials/bert_experts.ipynb
25118 views
Copyright 2020 The TensorFlow Hub Authors.
Licensed under the Apache License, Version 2.0 (the "License");
Especialistas em BERT do TF Hub
Este Colab demonstra como:
Carregar modelos BERT do TensorFlow Hub que foram treinados com diferentes tarefas, incluindo MNLI, SQuAD e PubMed
Usar um modelo de pré-processamento correspondente para tokenizar texto bruto e convertê-lo em IDs
Gerar a saída de frases combinadas a partir dos IDs de entrada de token usando o modelo carregado
Avaliar a similaridade semântica das saídas das diferentes frases combinadas
Observação: este Colab deve ser executado em um runtime com GPU
Configuração e importações
Frases
Vamos pegar algumas frases em inglês da Wikipedia para usar no modelo:
Execute o modelo
Vamos carregar o modelo BERT a partir do TF Hub, tokenizar as frases usando o modelo de pré-processamento correspondente do TF Hub e depois alimentar as frases tokenizadas no modelo. Para que este Colab seja rápido e simples, recomendamos executar em GPU.
Acesse Runtime → Change runtime type (Alterar tipo de runtime) para confirmar se a opção GPU está selecionada.
Similaridade semântica
Agora, vamos avaliar os embeddings pooled_output
das frases e comparar a similaridade deles entre as frases.
Saiba mais
Confira mais modelos BERT no TensorFlow Hub
Este notebook demonstra uma inferência simples com BERT. Confira um tutorial mais avançado sobre como fazer ajustes finos no BERT em tensorflow.org/official_models/fine_tuning_bert
Usamos apenas um chip de GPU para executar o modelo. Saiba mais sobre como carregar modelos usando tf.distribute em tensorflow.org/tutorials/distribute/save_and_load