Path: blob/master/site/zh-cn/hub/tutorials/bert_experts.ipynb
25118 views
Kernel: Python 3
Copyright 2020 The TensorFlow Hub Authors.
Licensed under the Apache License, Version 2.0 (the "License");
In [ ]:
TF-Hub 中的 BERT 专家模型
此 Colab 演示了如何执行以下操作:
从 TensorFlow Hub 加载已针对不同任务(包括 MNLI、SQuAD 和 PubMed)进行训练的 BERT 模型
使用匹配的预处理模型将原始文本词例化并转换为 ID
使用加载的模型从词例输入 ID 生成池化和序列输出
查看不同句子的池化输出的语义相似度
注:此 Colab 应与 GPU 运行时一起运行
设置和导入
In [ ]:
In [ ]:
In [ ]:
句子
我们从 Wikipedia 中获取一些句子以通过模型运行
In [ ]:
运行模型
我们将从 TF-Hub 加载 BERT 模型,使用 TF-Hub 中的匹配预处理模型将句子词例化,然后将词例化句子馈入模型。为了让此 Colab 变得快速而简单,我们建议在 GPU 上运行。
转到 Runtime → Change runtime type 以确保选择 GPU
In [ ]:
In [ ]:
语义相似度
现在,我们看一下句子的 pooled_output
嵌入向量,并比较它们在句子中的相似程度。
In [ ]:
In [ ]:
了解详情
在 TensorFlow Hub 上查找更多 BERT 模型
此笔记本演示了使用 BERT 的简单推断,您可以在 tensorflow.org/official_models/fine_tuning_bert 上找到有关微调 BERT 的更高级教程
我们仅使用一个 GPU 芯片运行模型,您可以在 tensorflow.org/tutorials/distribute/save_and_load 上详细了解如何使用 tf.distribute 加载模型