Path: blob/master/site/ja/hub/tutorials/bert_experts.ipynb
25118 views
Copyright 2020 The TensorFlow Hub Authors.
Licensed under the Apache License, Version 2.0 (the "License");
TF-Hub の BERT エキスパート
この Colab では、以下の方法を実演します。
MNLI、SQuAD、PubMed など、さまざまなタスクでトレーニング済みの BERT モデルを TensorFlow Hub から読み込みます。
一致する事前処理モデルを使用して、未加工のテキストをトークン化して ID に変換します。
読み込んだモデルを使用して、トークン入力 ID からプールされたシーケンス出力を生成します。
異なる文のプールされた出力に見られる意味的類似性を確認します。
注意: この Colab の実行には GPU ランタイムを使用してください。
セットアップとインポート
文章
Wikipedia から取得した、モデルで実行するための文章を見てみましょう。
モデルの実行
TF-Hub から BERT モデルを読み込み、TF-Hub の一致する事前処理モデルを使用して文章をトークン化し、そのトークン化された文章をモデルにフィードします。この Colab を端的に進められるよう、GPU で実行することをお勧めします。
Runtime → Change runtime type に移動して、GPU が選択されていることを確認します。
意味的類似性
では、文章の pooled_output
埋め込みを確認し、文章間でどれくらい類似性があるのかを比較しましょう。
詳細情報
その他の BERT モデルは、TensorFlow Hub をご覧ください。
このノートブックでは BERT を使った単純な推論を実演しています。BERT のファインチューニングに関するより高度なチュートリアルについては、tensorflow.org/official_models/fine_tuning_bert をご覧ください。
モデルの実行には、GPU チップを 1 つしか使用していません。tf.distribute を使ったモデルの読み込み方法については、tensorflow.org/tutorials/distribute/save_and_load をご覧ください。