Path: blob/main/transformers_doc/ja/tensorflow/image_classification.ipynb
7421 views
Image classification
画像分類では、画像にラベルまたはクラスを割り当てます。テキストや音声の分類とは異なり、入力は 画像を構成するピクセル値。損傷の検出など、画像分類には多くの用途があります 自然災害の後、作物の健康状態を監視したり、病気の兆候がないか医療画像をスクリーニングしたりするのに役立ちます。
このガイドでは、次の方法を説明します。
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、タスクページ を確認することをお勧めします。
始める前に、必要なライブラリがすべてインストールされていることを確認してください。
Hugging Face アカウントにログインして、モデルをアップロードしてコミュニティと共有することをお勧めします。プロンプトが表示されたら、トークンを入力してログインします。
Load Food-101 dataset
Datasets、🤗 データセット ライブラリから Food-101 データセットの小さいサブセットを読み込みます。これにより、次の機会が得られます 完全なデータセットのトレーニングにさらに時間を費やす前に、実験してすべてが機能することを確認してください。
train_test_split メソッドを使用して、データセットの train 分割をトレイン セットとテスト セットに分割します。
次に、例を見てみましょう。
データセット内の各例には 2 つのフィールドがあります。
image: 食品の PIL 画像label: 食品のラベルクラス
モデルがラベル ID からラベル名を取得しやすくするために、ラベル名をマップする辞書を作成します。 整数への変換、またはその逆:
これで、ラベル ID をラベル名に変換できるようになりました。
Preprocess
次のステップでは、ViT 画像プロセッサをロードして画像をテンソルに処理します。
いくつかの画像変換を画像に適用して、モデルの過学習に対する堅牢性を高めます。ここでは torchvision の transforms モジュールを使用しますが、任意の画像ライブラリを使用することもできます。
画像のランダムな部分をトリミングし、サイズを変更し、画像の平均と標準偏差で正規化します。
次に、変換を適用し、画像の pixel_values (モデルへの入力) を返す前処理関数を作成します。
データセット全体に前処理関数を適用するには、🤗 Datasets with_transform メソッドを使用します。変換は、データセットの要素を読み込むときにオンザフライで適用されます。
次に、DefaultDataCollator を使用してサンプルのバッチを作成します。 🤗 Transformers の他のデータ照合器とは異なり、DefaultDataCollator はパディングなどの追加の前処理を適用しません。
Evaluate
次に、予測とラベルを compute に渡して精度を計算する関数を作成します。
これで compute_metrics関数の準備が整いました。トレーニングを設定するときにこの関数に戻ります。
Train
Trainer を使用したモデルの微調整に慣れていない場合は、こちら の基本的なチュートリアルをご覧ください。
これでモデルのトレーニングを開始する準備が整いました。 AutoModelForImageClassification を使用して ViT をロードします。ラベルの数と予想されるラベルの数、およびラベル マッピングを指定します。
この時点で残っているステップは 3 つだけです。
TrainingArguments でトレーニング ハイパーパラメータを定義します。
image列が削除されるため、未使用の列を削除しないことが重要です。image列がないと、pixel_valuesを作成できません。この動作を防ぐには、remove_unused_columns=Falseを設定してください。他に必要なパラメータは、モデルの保存場所を指定するoutput_dirだけです。push_to_hub=Trueを設定して、このモデルをハブにプッシュします (モデルをアップロードするには、Hugging Face にサインインする必要があります)。各エポックの終了時に、Trainer は精度を評価し、トレーニング チェックポイントを保存します。トレーニング引数を、モデル、データセット、トークナイザー、データ照合器、および
compute_metrics関数とともに Trainer に渡します。train() を呼び出してモデルを微調整します。
トレーニングが完了したら、 push_to_hub() メソッドを使用してモデルをハブに共有し、誰もがモデルを使用できるようにします。
Inference
モデルを微調整したので、それを推論に使用できるようになりました。
推論を実行したい画像を読み込みます。
推論用に微調整されたモデルを試す最も簡単な方法は、それを pipeline() で使用することです。モデルを使用して画像分類用のpipelineをインスタンス化し、それに画像を渡します。
必要に応じて、pipelineの結果を手動で複製することもできます。
画像プロセッサをロードして画像を前処理し、inputを PyTorch テンソルとして返します。
入力をモデルに渡し、ロジットを返します。
最も高い確率で予測されたラベルを取得し、モデルの id2label マッピングを使用してラベルに変換します。