Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/ja/lite/guide/model_maker.md
25118 views

TensorFlow Lite Model Maker

概要

TensorFlow Lite Model Maker ライブラリは、カスタムデータセットを使用した TensorFlow Lite のモデルのトレーニングプロセスを簡素化します。転移学習を使用するので必要なトレーニングデータ量が軽減され、トレーニングに費やす時間が短縮されます。

サポートするタスク

現時点で Model Maker がサポートする機械学習タスクは以下のとおりです。モデルのトレーニング方法については、以下のリンクをクリックしてガイドをご覧ください。

サポートするタスクタスクの使用目的
画像分類:チュートリアルapi画像をあらかじめ定義したカテゴリに分類します。
物体検出:チュートリアルapiリアルタイムで物体を検出します。
テキスト分類:チュートリアルapiテキストをあらかじめ定義したカテゴリに分類します。
BERT 質問応答:チュートリアルapiBERT を使って与えられた質問に対する回答を特定の文脈の中で探します。
音声分類:チュートリアルapi音声を事前定義されたカテゴリに分類します。
推薦:デモapiデバイス上のシナリオのコンテキスト情報に基づいてアイテムを推奨します。

タスクがサポートされていない場合は、最初に TensorFlow を使用して、転移学習を使用して TensorFlow モデルを再トレーニングしてください(画像テキスト音声などのガイドに従ってください) 。または、最初からトレーニングしてから、TensorFlowLite モデルに変換します。

エンドツーエンドの例

Model Maker は、カスタムデータセットを使用して TensorFlow Lite のモデルをわずか数行のコードでトレーニングすることができます。例えば、画像分類モデルのトレーニング手順は以下の通りです。

from tflite_model_maker import image_classifier from tflite_model_maker.image_classifier import DataLoader # Load input data specific to an on-device ML app. data = DataLoader.from_folder('flower_photos/') train_data, test_data = data.split(0.9) # Customize the TensorFlow model. model = image_classifier.create(train_data) # Evaluate the model. loss, accuracy = model.evaluate(test_data) # Export to Tensorflow Lite model and label file in `export_dir`. model.export(export_dir='/tmp/')

詳細については、画像分類ガイドをご覧ください。

インストール

Model Maker のインストールには 2 通りの方法があります。

  • 構築済みの pip パッケージをインストールする。

pip install tflite-model-maker

ナイトリー版をインストールする場合は、以下のコマンドに従ってください。

pip install tflite-model-maker-nightly
  • GitHub からソースコードをクローンし、インストールする。

git clone https://github.com/tensorflow/examples cd examples/tensorflow_examples/lite/model_maker/pip_package pip install -e .

TensorFlow Lite Model Maker は、TensorFlow pip パッケージに依存しています。GPU ドライバについては、TensorFlow の GPU ガイドまたはインストールガイドを参照してください。

Python API リファレンス

Model Maker のパブリック API については API リファレンスを参照してください。