Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/ja/tfx/guide/bulkinferrer.md
25118 views

BulkInferrer TFX パイプラインコンポーネント

BulkInferrer TFX コンポーネントは、ラベルの無いデータで一括推論を実行します。生成される InferenceResult(tensorflow_serving.apis.prediction_log_pb2.PredictionLog) には、元の特徴量と予測結果が含まれます。

BulkInferrer は次の項目を消費します。

  • SavedModel 形式のトレーニング済みモデル

  • 特徴量を含むラベル無しの tf.Examples

  • (オプション)Evaluator コンポーネントの検証結果

BulkInferrer は次の項目を発します。

BulkInferrer コンポーネントを使用する

BulkInferrer TFX コンポーネントは、ラベル無しの tf.Examples に対して一括推論を実行するために使用されます。通常、検証済みのモデルで推論を実行するように Evaluator の後にデプロイされるか、エクスポートされたモデルで直接推論を実行するように Trainer コンポーネントの後にデプロイされます。

現在、インメモリモデル推論とリモート推論を実行します。リモート推論の場合は、モデルが Cloud AI Platform にホストされている必要があります。

次は、典型的なコードです。

bulk_inferrer = BulkInferrer( examples=examples_gen.outputs['examples'], model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], data_spec=bulk_inferrer_pb2.DataSpec(), model_spec=bulk_inferrer_pb2.ModelSpec() )

より詳細な情報は、BulkInferrer API リファレンスをご覧ください。