Path: blob/master/site/ja/probability/examples/Generalized_Linear_Models.ipynb
25118 views
Copyright 2018 The TensorFlow Probability Authors.
Licensed under the Apache License, Version 2.0 (the "License");
このノートブックでは、実際の例を使用して一般化線形モデルを見ていきます。TensorFlow Probability で GLM を効率的に適合させるために 2 つのアルゴリズム(フィッシャーのスコア法、疎なデータの場合はスパースな座標近接勾配降下法)を使用して、この例を 2 つの異なる方法で解決します。近似係数を真の係数と比較し、座標近接勾配降下法の場合は、R の同様の glmnet
アルゴリズムの出力と比較します。最後に、GLM のいくつかの重要なプロパティの数学的詳細と導出について説明します。
背景情報
一般化線形モデル(GLM)は、変換(リンク関数)にラップされ、指数型分布族に含まれた応答分布がある線形モデル()です。リンク機能と応答分布の選択は非常に柔軟なので、GLM には優れた表現度があります。明確な表記法で一般化線形モデルを作成するためのすべての定義と結果の順次表示を含む完全な詳細は、以下の「一般化線形モデルの詳細の導出」を参照してください。要約は以下のとおりです。
GLM では、応答変数 の予測分布は、観測された予測変数 のベクトルに関連付けられます。分布の形式は次のとおりです。
ここでは、 はパラメータ (「重み」)、 は分散(「バリアンス」)を表すハイパーパラメータであり、、、、 はユーザーにより指定されたモデルの族により特徴付けられます。
の平均は、線形応答 と (逆) リンク関数の合成によって に依存します。つまり、次のようになります。
はいわゆるリンク関数です。TFP では、リンク関数とモデルの族は、tfp.glm.ExponentialFamily
サブクラスにより共に指定されます。例は次のとおりです。
tfp.glm.Normal
、「線形回帰」tfp.glm.Bernoulli
、「ロジスティック回帰」tfp.glm.Poisson
、「ポアソン回帰」tfp.glm.BernoulliNormalCDF
、「プロビット回帰」。
tfp.Distribution
はすでに第一級であるため、TFP では、リンク関数ではなく Y
の分布に従ってモデルの族に名前を付けます。tfp.glm.ExponentialFamily
サブクラス名に 2 番目の単語が含まれている場合、これは非正規リンク関数を示します。
GLM には、最尤推定量の効率的な実装を可能にするいくつかの注目すべき特性があります。これらのプロパティの中で最も重要なのは、対数尤度 の勾配の簡単な式です。フィッシャー情報行列の場合、これは、同じ予測子の下での応答のリサンプリングの下での負の対数尤度のヘッセ行列の期待値です。
ここで、 は、 番目の行が 番目のデータサンプルの予測ベクトルである行列で、 は、 番目の座標が 番目のデータサンプルで観測された応答であるベクトルです。ここで(大まかに言えば)、 および であり、太字はこれらの関数のベクトル化を示します。これらの期待と分散がどのような分布を超えているかについての完全な詳細は、以下の「一般化線形モデルの詳細の導出」を参照してください。
例
このセクションでは、TensorFlow Probability に組み込まれている 2 つの GLM フィッティングアルゴリズム、フィッシャースコアリング(tfp.glm.fit
)および座標近接勾配降下(tfp.glm.fit_sparse
)について簡単に説明します。
合成データセット
トレーニングデータセットを読み込むふりをしてみましょう。
注意: ローカルランタイムに接続します。
このノートブックでは、ローカルファイルを使用して Python カーネルと R カーネルの間でデータを共有します。この共有を有効にするには、ローカルファイルの読み取りと書き込みの権限がある同じマシンのランタイムを使用してください。
L1 正則化なし
関数 tfp.glm.fit
は、フィッシャースコアリングを実装します。これは、引数として以下を取ります。
model_matrix
=response
=model
= 引数 を指定すると、トリプル を返すコーラブル。
model
を tfp.glm.ExponentialFamily
クラスのインスタンスにすることをお勧めします。いくつかの事前に作成された実装が利用可能なので、ほとんどの一般的な GLM では、カスタムコードは必要ありません。
数学的詳細
フィッシャースコアリングは、最尤推定値を見つけるための修正されたニュートン法です。
対数尤度の勾配 0 を検索する普通のニュートン法は、更新ルールに従います。
ここで、 は、ステップサイズを制御するために使用される学習率です。
フィッシャースコアリングでは、ヘッセ行列を負のフィッシャー情報行列に置き換えます。
[ここで はランダムですが、 は依然として観測された応答のベクトルであることに注意してください。]
以下の「GLM パラメータのデータへの適合」の式により、これは次のように簡略化されます。
L1 正則化あり
tfp.glm.fit_sparse
は、Yuan, Ho and Lin 2012 のアルゴリズムに基づいて、スパースデータセットにより適した GLM フィッターを実装します。機能は次のとおりです。
L1 正則化
行列反転なし
勾配とヘッセ行列の評価はほとんどない。
まず、コードの使用例を示します。アルゴリズムの詳細については、以下の「tfp.glm.fit_sparse
のアルゴリズムの詳細」で詳しく説明しています。
学習された係数は、真の係数と同じスパースパターンを持っていることに注意してください。
R の glmnet
と比較する
座標近接勾配降下法の出力を、同様のアルゴリズムを使用する R の glmnet
の出力と比較します。
注意: このセクションを実行するには、R colab ランタイムに切り替える必要があります。
R、TFP、および真の係数を比較します(注意: Python カーネルに戻る)
tfp.glm.fit_sparse
のアルゴリズムの詳細
ニュートン法に対する 3 つの変更のシーケンスとしてアルゴリズムを提示します。それぞれにおいて、 の更新ルールは、対数尤度の勾配とヘッセ行列を近似するベクトル と行列 に基づいています。ステップ で、変更する座標 を選択し、更新ルールに従って を更新します。
この更新は、学習率が のニュートンのようなステップです。最後の部分(L1 正則化)を除いて、以下の変更は、 と の更新方法のみが異なります。
座標的ニュートン法で始める
座標的ニュートン法では、 と 対数尤度の真の勾配とヘッセ行列に設定します。
勾配とヘッセ行列の評価はほとんどない
対数尤度の勾配とヘッセ行列の計算は高コストになることが多いため、次のように概算することがすすめられます。
通常、ヘッセ行列を局所定数として近似し、(近似)ヘッセ行列を使用して勾配を 1 次に近似します。
場合によっては、上記のように「通常の」更新ステップを実行し、 を正確な勾配に設定し、 をで評価される対数尤度の正確なヘッセ行列に設定します。
負のフィッシャー情報をヘシアンに置き換える
通常の更新ステップのコストをさらに削減するために、正確なヘッセ行列ではなく、負のフィッシャー情報行列(以下の「GLM パラメーターのデータへの適合」の式を使用して効率的に計算できます)に を設定します。
近接勾配降下による L1 正則化
L1 正則化を組み込むために、更新ルール
をより一般的な更新ルールにを置き換えます
は指定された定数(L1 正則化係数)であり、 は以下により定義されるソフトしきい値演算子です。
この更新ルールには、以下で説明する 2 つのプロパティがあります。
限定的なケース (つまり、L1 正則化なし)では、この更新ルールは元の更新ルールと同じです。
この更新ルールは、不動点が L1 正則化最小化問題の解である近接演算子を適用するものとして解釈できます。
縮退ケース は、元の更新ルールを復元
(1)を確認するには、 の場合、 であるため、
したがって、
一般化線形モデルの詳細の導出
このセクションでは、前のセクションで使用された GLM に関する詳細を説明し、結果を導き出します。次に、TensorFlow の gradients
を使用して、対数尤度とフィッシャー情報の勾配について導出された式を数値的に検証します。
スコアとフィッシャー情報
パラメータベクトル によってパラメータ化され、確率密度 ParseError: KaTeX parse error: Expected '}', got '\right' at position 24: …\cdot | \theta)\̲r̲i̲g̲h̲t̲}_{\theta \in \… を持つ確率分布のファミリをみてみましょう。パラメータベクトル での結果 のスコアは、 ( で評価)の対数尤度の勾配として定義されます。
主張: スコアの期待値はゼロである
穏やかな規則性の条件下(積分の下で微分を渡すことを許可する)では、
証明
まず、
ここでは次を使用しました。 (1) 微分の連鎖律、(2) 期待値の定義、(3) 積分記号の下で微分を渡す(規則性条件を使用)、(4) 確率密度の積分は 1。
主張(フィッシャー情報): スコアの分散は、対数尤度の負の予想ヘッセ行列に等しい
穏やかな規則性の条件下(積分の下で微分を渡すことを許可する)では、
ここで、 はヘッセ行列を示し、その エントリは です。
この方程式の左辺は、パラメータベクトル の族 ParseError: KaTeX parse error: Expected '}', got '\right' at position 24: …\cdot | \theta)\̲r̲i̲g̲h̲t̲}_{\theta \in \… のフィッシャー情報量と呼ばれます。
主張の証明
まず、
ここでは(1)微分のための連鎖律、(2)微分のための商の法則、(3)再び連鎖律を(逆順に)使用しました。
証明には、以下を示すだけで十分です
そのために、積分記号の下で微分を 2 回渡します。
対数分配関数の導関数についての補題
、 および がスカラー値関数の場合、 は 2 回微分可能であり、分布族 ParseError: KaTeX parse error: Expected '}', got '\right' at position 24: …\cdot | \theta)\̲r̲i̲g̲h̲t̲}_{\theta \in \… は以下によって定義されます。
に関する積分の下で、 に関する微分を渡すことを可能にする穏やかな規則性条件を満たします。
と
(ここで は微分を表すので、 と は の 1 次および 2 次導関数です。)
証明
この分布ファミリーの場合、 です。最初の方程式は、 に従います。 次に、以下があります。
過分散指数型分布族
(スカラー)過分散指数型分布族は、密度が次の形式をとる分布の族です。
ここで、 と は既知のスカラー値関数であり、 と はスカラーパラメータです。
[ は過剰決定であることに注意してください。任意の では、関数 はすべての に対して の制約によって完全に決定されます。 の異なる値によって生成される はすべて同じである必要があり、これにより関数 と に制約が課せられます。]
十分統計量の平均と分散
「対数分配関数の導関数についての補題」と同じ条件で、次のようになります
と
証明
「対数分配関数の導関数についての補題」により、次が成り立ちます。
と
結果は、期待値が線形 () および、分散が 2 次均一 () であるということから成り立ちます。
一般化線形モデル
一般化線形モデルでは、応答変数 の予測分布は、観測された予測子 のベクトルに関連付けられます。分布は過分散指数型分布族のメンバーであり、パラメータ は に置き換えられます。ここで、 は既知の関数、 は線形応答であり、 は学習するパラメータ (回帰係数) のベクトルです。一般的に、分散パラメータ も学習できますが、ここでは以下のように を既知として扱います。
ここで、モデル構造は、分布 と線形応答をパラメーターに変換する関数 により特徴付けられます。
Traditionally, the mapping from linear response to mean is denoted
このマッピングは 1 対 1 である必要があり、その逆関数 は、この GLM のリンク関数と呼ばれます。通常、GLM は、そのリンク関数とその分布族で名前を付けて説明します。例: 「ベルヌーイ分布とロジットリンク関数を使用した GLM」(ロジスティック回帰モデルとも呼ばれます)。GLM を完全に特性化するには、関数 も指定する必要があります。 がアイデンティティの場合、 は正規リンク関数になります。
主張: 十分統計量の観点から を表現する
以下を定義します
と
すると、以下が成り立ちます。
証明
「十分統計量の平均と分散」により、以下が成り立ちます。
連鎖律で微分すると、 が得られます。
「十分統計量の平均と分散」により、以下が成り立ちます。
結論が成り立ちます。
GLM パラメータのデータへの適合
上記で導出されたプロパティは、GLM パラメータ をデータセットに適合させるのに非常に役立ちます。フィッシャースコアリングなどの準ニュートン法は、対数尤度の勾配とフィッシャー情報に依存します。これは、以下に示すように GLM に対して特に効率的に計算できます。
予測ベクトル と関連するスカラー応答 を観測したとします。行列形式では、予測子 と応答 を観測しました。ここで、 は、 番目の行が である行列であり、 は、 番目の要素がであるベクトルです。パラメータ の対数尤度は次のようになります。
単一のデータサンプルの場合
表記を簡単にするために、最初に単一のデータポイント の場合を検討します。次に、加法性によって一般的なケースに拡張します。
勾配
まず、
したがって、連鎖律により以下が成り立ちます。
一方、「十分統計量の平均と分散」により、 が得られます。したがって、「主張: 十分統計量の観点から を表現する」ことにより、次が成り立ちます。
ヘッセ行列
積の法則により 2 回微分することにより、以下が得られます。
フィッシャー情報
「十分統計量の平均と分散」により、以下が成り立ちます。
したがって、
複数のデータサンプルの場合
次に、 を一般的なケースに拡張します。 が、 番目の座標が 番目のデータサンプルからの線形応答であるベクトルを表すとします。 (resp. , resp. ) がスカラー値関数 (resp. , resp. )を各座標に適用するブロードキャスト (ベクトル化) 関数を示すとすると、以下が成り立ちます。
と
ここで、分数は要素ごとの除算を示します。
数式を数値的に検証する
次に、tf.gradients
を使用して対数尤度の勾配について上記の式を数値的に検証し、tf.hessians
を使用してモンテカルロ推定でフィッシャー情報の式を検証します。
参照文献
[1]: Guo-Xun Yuan, Chia-Hua Ho and Chih-Jen Lin. An Improved GLMNET for L1-regularized Logistic Regression. Journal of Machine Learning Research, 13, 2012. http://www.jmlr.org/papers/volume13/yuan12a/yuan12a.pdf
[2]: skd. Derivation of Soft Thresholding Operator. 2018. https://math.stackexchange.com/q/511106
[3]: Wikipedia Contributors. Proximal gradient methods for learning. Wikipedia, The Free Encyclopedia, 2018. https://en.wikipedia.org/wiki/Proximal_gradient_methods_for_learning
[4]: Yao-Liang Yu. The Proximity Operator. https://www.cs.cmu.edu/~suvrit/teach/yaoliang_proximity.pdf