Path: blob/master/site/ja/tutorials/structured_data/preprocessing_layers.ipynb
38092 views
Copyright 2019 The TensorFlow Authors.
Keras 前処理レイヤーを使って構造化データを分類する
このチュートリアルでは、CSV ファイルに保存されている Kaggle コンペティションの PetFinder データセットの簡略版を使用して、表形式のデータなど構造化データを分類する方法を示します。
Keras を使用してモデルを定義し、Keras 前処理レイヤーを CSV ファイルの列からモデルのトレーニングに使用される特徴量にマッピングするためのブリッジとして使用します。目標は、ペットが引き取られるかどうかを予測することです。
このチュートリアルには、次の完全なコードが含まれています。
tf.dataを使用して、行をバッチ処理およびシャッフルするための入力パイプラインを構築する。 (詳細については、tf.data: TensorFlow 入力パイプラインの構築を参照してください。)Keras 前処理レイヤーを使ってモデルをトレーニングするために使用する特徴量に、CSV のカラムをマッピングする。
Keras の組み込みメソッドを使用してモデルを構築、トレーニング、および評価する。
注意: このチュートリアルは、「特徴量カラムを使って構造化データを分類する」に類似しています。このバージョンでは、Keras 前処理レイヤーを使用しており、tf.feature_column API を使っていません。Keras 前処理レイヤーはより直感的であり、デプロイを単純化するようにモデル内に簡単に含めることができます。
PetFinder.my mini データセット
PetFinder.my mini の CSV データセットファイルには数千の行があり、各行はペット (犬または猫) を表し、各列は年齢、品種、色などの属性を表します。
以下のデータセットの要約では、ほとんどが数値カラムとカテゴリカルカラムであることに注意してください。このチュートリアルでは、データの前処理中に Description (フリーテキスト特徴量) と AdoptionSpeed (分類特徴量) を削除し、これら 2 つの特徴量の型のみを扱います。
| カラム | ペットの説明 | 特徴量の型 | データ型 |
|---|---|---|---|
Type | 動物の種類(犬、猫) | カテゴリカル | 文字列 |
Age | 年齢 | 数値 | 整数 |
Breed1 | 主な品種 | カテゴリカル | 文字列 |
Color1 | Color1 | カテゴリカル | 文字列 |
Color2 | Color2 | カテゴリカル | 文字列 |
MaturitySize | 成獣時のサイズ | カテゴリカル | 文字列 |
FurLength | 毛の長さ | カテゴリカル | 文字列 |
Vaccinated | 予防接種済み | カテゴリカル | 文字列 |
Sterilized | 不妊手術済み | カテゴリカル | 文字列 |
Health | 健康状態 | カテゴリカル | 文字列 |
Fee | 引き取り料 | 数値 | 整数 |
Description | プロファイルの記述 | テキスト | 文字列 |
PhotoAmt | アップロードされたペットの写真数 | 数値 | 整数 |
AdoptionSpeed | 引き取りまでの期間 (カテゴリカル) | 分類 | 整数 |
TensorFlow とその他のライブラリをインポートする
データセットを読み込み、pandas DataFrame に読み込む
Pandas は、構造化データの読み込みと処理を支援するユーティリティが多数含まれる Python ライブラリです。tf.keras.utils.get_file を使用して、PetFinder.my mini データセットを含む CSV ファイルをダウンロードして抽出し、pandas.read_csv を使用して DataFrame に読み込みます。
DataFrame の最初の 5 行をチェックして、データセットを確認します。
ターゲット変数を作成する
Kaggle の PetFinder.my 養子縁組予測コンペティションの元のタスクは、ペットが引き取られるまでの期間を予測することでした (一週間、1 か月、3か月など) 。
このチュートリアルでは、ペットが引き取られるかどうかを予測するだけのバイナリ分類問題に変換することで、タスクを簡略化します。
AdoptionSpeed を変更し、0 は引き取られなかった、1 は引き取られたことを示すようになります。
DataFrame をトレーニング、検証、およびテストセットに分割する
データセットは単一の pandas DataFrame にあります。たとえば、80:10:10 の比率を使用して、トレーニング、検証、およびテストセットに分割します。
tf.data を使用して入力パイプラインを作成する
次に、トレーニング、検証、テストセットの DataFrame をそれぞれ tf.data.Dataset に変換するユーティリティ関数を作成し、データをシャッフルしてバッチ処理します。
注意: 非常に大型 (メモリに収まらないほどの規模) の CSV ファイルを処理する場合は、tf.data API を使用してディスクから直接読み取ります。この方法は、このチュートリアルでは取り上げられていません。
次に、新しく作成された関数 (df_to_dataset) を使用して、入力パイプラインヘルパー関数がトレーニングデータで呼び出すことによって返すデータの形式を確認し、小さなバッチサイズを使用して出力を読み取り可能に保ちます。
出力が示すように、トレーニングセットは、行のカラム値にマップされる (DataFrame からの) カラム名のディクショナリを返します。
Keras 前処理レイヤーを適用する
Keras 前処理レイヤーを使用すると、Keras ネイティブの入力処理パイプラインを構築できます。これらの入力処理パイプラインは、Keras 以外のワークフローで独立した前処理コードとして使用し、Keras モデルと直接組み合わせて、Keras SavedModel の一部としてエクスポートできます。
このチュートリアルでは、次の 4 つの前処理レイヤーを使用して、前処理、構造化データエンコーディング、および特徴量エンジニアリングを実行する方法を示します。
tf.keras.layers.Normalization: 入力した特徴量を特徴量ごとに正規化します。tf.keras.layers.CategoryEncoding: 整数のカテゴリカル特徴量をワンホット、マルチホット、または tf-idf デンス表現に変換します。tf.keras.layers.StringLookup: 文字列のカテゴリ値を整数インデックスに変換します。tf.keras.layers.IntegerLookup: 整数のカテゴリ値を整数のインデックスに変換します。
使用可能なレイヤーの詳細については、前処理レイヤーの使用ガイドを参照してください。
PetFinder.my mini データセットの数値特徴量の場合、
tf.keras.layers.Normalizationレイヤーを使用してデータの分布を標準化します。ペット
Type(Dog、Cat文字列)などのカテゴリカル特徴量の場合、tf.keras.layers.CategoryEncodingでそれらをマルチホットエンコードされたテンソルに変換します。
数値カラム
PetFinder.my mini データセットの数値特徴量の場合、tf.keras.layers.Normalization レイヤーを使用してデータの分布を標準化します。
Keras 前処理レイヤーを使用して、数値特徴量の特徴ごとに正規化を適用するレイヤーを返す新しいユーティリティ関数を定義します。
次に、アップロードされたペットの写真特徴量の合計で新しい関数を呼び出して、'PhotoAmt' を正規化して新しい関数をテストします。
注意: 多数の数値特徴量 (数百個以上) がある場合は、先にそれらを連結してから単一の tf.keras.layers.Normalization レイヤーを使用するとより効率的です。
カテゴリカルカラム
データセット内のペットの Type は、文字列(Dog、Cat) として表されます。これらは、フィードする前にマルチホットエンコードする必要があります。
tf.keras.layers.StringLookup、 tf.keras.layers.IntegerLookup、tf.keras.CategoryEncoding 前処理レイヤーを使用して語彙から整数インデックスに値をマップし、特徴量をマルチホットエンコードするレイヤーを返す別の新しいユーティリティ関数を定義します
ペットの 'Type' 特徴量で呼び出して get_category_encoding_layer 関数をテストし、マルチホットエンコードされたテンソルに変換します。
ペットの 'Age' 特徴量でこのプロセスを繰り返します。
選択した特徴量を前処理して、モデルをトレーニングする
いくつかの Keras 前処理レイヤーの使用方法を学びました。次に、以下を行います。
PetFinder.my mini データセットの 13 の数値特徴量とカテゴリカル特徴量で前に定義した前処理ユーティリティ関数を適用します。
すべての特徴量の入力をリストに追加します。
冒頭で述べたように、モデルをトレーニングするには、PetFinder.my mini データセットの数値特徴量('PhotoAmt'、'Fee') とカテゴリカル特徴量 ('Age'、'Type'、'Color1'、'Color2'、'Gender'、'MaturitySize'、'FurLength'、'Vaccinated'、'Sterilized'、'Health'、'Breed1') を使用します。
重要: 正確なモデルの構築を目的としている場合は、より大きなデータセットを独自に用意し、どの特徴量が最も有意義で、どのように表現するべきかについて検討しましょう。
前に、入力パイプラインを実演するために小さなバッチを使用しました。今度はより大きなバッチサイズ (256) で新しい入力パイプラインを作成してみましょう。
数値の特徴量 (ペットの写真の数と引き取り料金) を正規化し、encoded_features と呼ばれる入力の 1 つのリストに追加します。
データセット (ペットの年齢) からの整数カテゴリカル値を整数インデックスに変換し、マルチホットエンコーディングを実行して、結果の特徴量入力を encoded_features に追加します。
文字列のカテゴリカル値に対して同じ手順を繰り返します。
モデルを作成、コンパイル、およびトレーニングする
次のステップは、Keras Functional API を使用してモデルを作成することです。モデルの最初のレイヤーでは、tf.keras.layers.concatenate との連結により、特徴量入力のリスト (encoded_features) を 1 つのベクトルにマージします。
Keras Model.compile を使用してモデルを構成します。
接続性グラフを視覚化しましょう。
次に、モデルをトレーニングし、テストします。
推論を実行する
開発したモデルには前処理コードが含まれているため、直接 CSV ファイルから行を分類できるようになりました。
新しいデータで推論を実行する前に、Model.save と Model.load_model で Keras モデル保存して再読み込みできるようになりました。
Keras model.predict メソッドを呼び出すだけで、新しいサンプルの予測を得ることができます。後は、次を実行するだけです。
バッチに次元を持たせるために、スカラーをリストにラップします (
Modelは、単一のサンプルではなく、データのバッチのみを処理します)。各特徴量で
tf.convert_to_tensorを呼び出します。
注意: 通常、データベースの規模が大きく複雑であるほど、ディープラーニングの結果がよくなります。簡易化された PetFinder.my のデータセットのように、小さなデータセットを使用する場合は、決定木またはランダムフォレストを強力なベースラインとして使用することをお勧めします。このチュートリアルでは、構造化データとの連携の仕組みを実演することが目的であり、将来的に独自のデータセットを使用する際の出発点として使用してください。
次のステップ
構造化データの分類についてさらに学ぶには、他のデータセットを使用してみてください。モデルのトレーニングおよびテスト中の精度を向上させるには、モデルに含める特徴量とそれらをどのように表現するかを慎重に検討してください。
以下は、データセットに関するいくつかの提案です。
TensorFlow Datasets: MovieLens: 映画推薦サービスからの映画レビューのセット。
TensorFlow Datasets: ワインの品質: ポルトガルの「ヴィーニョヴェルデ」赤ワインと白ワインの 2 つのデータセット。赤ワインの品質データセットは Kaggle にもあります。
Kaggle: arXiv Dataset: 物理学、コンピューターサイエンス、数学、統計学、電気工学、量的生物学、および経済学を含む、arXiv からの 170 万の学術論文のコーパス。
TensorFlow.org で表示
Google Colab で実行
GitHub でソースを表示
ノートブックをダウンロード