prml_note @ ウィキ
第三章
最終更新:
prml_note
-
view
第三章 線形モデルによる回帰問題
- 教師あり学習による回帰分析の目的は、次元入力ベクトルの値から連続な目標変数を予測すること。
- 非線形な基底関数(basis function)の線形結合を用いることも可。
3.1節 線形基底関数モデル
- 線形回帰
これはについての線形関数であると同時に、についても線形であり、このことがこのモデルに重大な制約を課す結果となっている。そこで以下のように非線形なの基底関数を利用できるように拡張する。
ここでが基底関数。は固定されたオフセットとして利用され、バイアスパラメータ(bias parameter)と呼ばれる(統計学のバイアスとは無関係)。このように拡張されたモデルは、については非線形となるが、については依然として線形。
- 第一章で考察した曲線近似の問題は、多項式基底関数の一例。このモデルの欠点は、基底関数ががのすべての領域にわたって定義されているため、入力空間の一部における変更がすべての領域に対して影響を与えてしまうこと。この点を改善したものがスプライン関数(spline function)。
- 基底関数が正規分布の例
は位置を、は幅を定める。
- 基底関数がシグモイド関数の例
あるいは双曲正接関数(tanh)。ほかにフーリエ基底関数も利用され、その周期は個別で範囲は無限定。
- ウェーブレット(wavelets)関数は、周期も範囲も個別化され、それぞれが互いに直交するように定義される。これは時系列における連続時点や画像のピクセルのように、入力値が規則的格子に沿っている場合に最も有効とされる。
- 最大尤度と最小二乗法
目標変数が以下の式で決定されるものとする。
ここでは平均0の正規分布に従う確率変数であり、その精度(分散の逆数)は。よって
と書ける。平方損失関数を最小化することによって得られる新たなに対する最適な予測は、
ノイズが単純な正規分布に従うと仮定すると、上の条件付確立も単峰的であることになるがこれは多くの場合不適切。
ここでは平均0の正規分布に従う確率変数であり、その精度(分散の逆数)は。よって
と書ける。平方損失関数を最小化することによって得られる新たなに対する最適な予測は、
ノイズが単純な正規分布に従うと仮定すると、上の条件付確立も単峰的であることになるがこれは多くの場合不適切。
- データセットに対応する目標変数によって構成される列ベクトルをとすると、尤度関数は
教師付き学習の回帰ないし判別問題では、入力変数の分布をモデル化することが目的ではないため、をパラメータから除外してよい。対数尤度関数は
この尤度関数からまずを決定するため、について上の式を最大化することを考える。求めるにおいて上式は停留点をとるから、
これをについて解くと、最小二乗法の正規方程式(normal equation)
が得られる。ここではデザイン行列(design matrix)で、その要素は。
はのムーア・ペンローズ型一般逆行列(Moore-Penrose pseudo-inverse)。
- バイアスパラメータは学習データの目標変数の平均値と重み付けされた基底関数の値の平均との間の差を補うものと見ることができる。
- 次にについて同じ尤度関数を最大化することによって、
を得る。
- 最小二乗解とは、基底関数に対応するベクトル集合によって張られる線形部分空間上へのの直交射影と解釈できる。が特異に近い場合には正規方程式を直接求めることは計算上困難だが、これは特異値分解(singular value decomposition,SVD)によって解決できる。正規化項を追加することで常に行列が非特異になるようにすることが可能。
- データ集合が巨大な場合は逐次学習(sequential learning)またはオンライン学習(on-line learning)が適切。逐次学習のアルゴリズムは確率的勾配降下法(stochastic gradient descent)を適用することによって得られる。
は反復回数を表し、は学習レートパラメータ。二乗和誤差関数の場合は
これは最小平均二乗アルゴリズム(least-mean-square(LMS) algorithm)として知られている。の値はアルゴリズムが収束するように選ばれる必要がある。
- 正則化された最小二乗
曲線近似のオーバーフィッティング対策として利用された正則化項をこの場合も適用できる。
二乗和誤差関数に重みベクトルの二乗和を加えるシンプルなケースでは、誤差関数全体は次のようになる(リッジ回帰)。
機械学習の文脈においてはこのような正則化項の選択は重みベクトルの値を0に向かって減衰させるため、重み減衰(weight decay)という。統計学においてはこれはパラメータ縮小法の一例。この手法の利点は、誤差関数をの二次式に保つことができるためその最小化解が容易に求められる点にある。上の式のについての導関数を0と等値してについて解くと、
と簡単になる。
二乗和誤差関数に重みベクトルの二乗和を加えるシンプルなケースでは、誤差関数全体は次のようになる(リッジ回帰)。
機械学習の文脈においてはこのような正則化項の選択は重みベクトルの値を0に向かって減衰させるため、重み減衰(weight decay)という。統計学においてはこれはパラメータ縮小法の一例。この手法の利点は、誤差関数をの二次式に保つことができるためその最小化解が容易に求められる点にある。上の式のについての導関数を0と等値してについて解くと、
と簡単になる。
- より一般的な正則化項を用いた誤差関数は次のようになる。
ここでとすればリッジ回帰となり、とした場合を投げ縄(lasso)という。これは十分に大きなについて係数のうちの幾つかが0になり、対応する基底関数が何の影響も持たなくなるスパースモデル(sparse model)に導かれるという特徴を有している。
3.2節 バイアス・バリアンス分解
- 期待二乗損失
第二項はとは独立でデータに内在するノイズから生じるものだからこの際無視できる。特定のデータセットに対する第一項の被積分関数を
と書き直し、その平均を取ると、
第一項がバイアスの二乗ですべてのデータセットについての予測の平均が理想の回帰関数とどれだけ食い違っているかを表し、第二項は分散、すなわち個々のデータセットに対する解がそれらの平均からどれだけ乖離しているか、つまりが特定のデータセットによってどれだけ影響されるかの程度を表している。つまり(3.37)は
期待損失 = バイアス + 分散 + ノイズ
バイアスと分散との間にはトレードオフの関係があり、非常に柔軟なモデルは低いバイアスと高い分散を伴い、比較的硬直したモデルは高いバイアスと低い分散を伴う。ただし実際には限られたデータセットを複数のセットに分割することは無駄なのでこれらの洞察は実用性には繋がりにくい。
3.3節 ベイズ線形回帰
- 線形回帰モデルのパラメータを決定する最尤法においては、基底関数の個数によって支配される最適なモデル複雑性はデータセットの個数に左右されることを見た。むろん対数尤度関数に正則化項を加えることによって、モデル複雑性は正則化係数によっても制御されうることになるものの、その場合にも依然として基底関数の個数と形式を選択することはモデル全体の振る舞いを決定するのに重要。ある問題に最適なモデルを決定することは尤度関数を最大化することによっては達成できない。なぜならそれは常に過剰に複雑なモデルを選択することすなわち過学習につながるから。既述のように、モデル複雑性を決定するのに別個のデータを使用することも出来るがそれは計算量の増加を招き、またデータの無駄でもある。
- 線形回帰問題に対するベイジアン的手法には、このような尤度関数による過学習を避け、学習パターンのみによってモデル複雑性を決定できるという利点がある。
パラメータ確率分布
- ベイズ線形回帰は、モデルパラメータについての事前確率分布を導入することから始まる。精度パラメータはここでは既知の定数とする。尤度関数
はの二次関数の指数関数によって定義されるから、対応する共役事前分布は正規分布
これから事後分布(ベイズの定理により事前分布と尤度の積に比例する)を平方完成により求めると以下の正規分布となる。
これはのとき事前分布に一致する。事後分布は正規分布で最頻値が平均に一致するから、MAP重みはで与えられる。ここでとすれば、事後分布の平均はに一致する。なお、例によってのとき事後分布は事前分布に一致する。
- いま単純化するために平均が0の等方的な正規分布
を考えると、事後分布の対数は対数尤度と事前分布の対数との和で与えられ、以下のの関数となる。
これをについて最大化することは(3.27の正則化係数がの)二次形式正則化項つき二乗和誤差関数を最小化することと等価。
予測分布
- パラメータ自体よりも新たな入力に対する予測を知りたいということが実際には多いため、予測分布(predictive distribution)
(は学習パターンの目標値ベクトルで、それに対応する入力ベクトルは省略されている)これは書き換えると
となり、分散の第一項はデータのノイズを表し、第二項はパラメータについての不確かさを表している。
- データが観測される毎に予測分散が小さくなり()、のとき第二項は限りなく0に近付き、予測分散はのみによって支配されるようになる。正規分布のような基底関数を使用する場合、基底関数の中心から離れれば離れるほど予測分散の第二項の影響が小さくなり、のみによって支配されるようになるため、基底関数が占める領域外の外挿を行った場合の方が信頼性が高くなるという望ましくない結果となる。この点を改善するのがガウス過程(Gaussian process)。
- およびの両方が未知とした場合には共役事前分布はガウス-ガンマ分布で与えられ、予測分布はt分布となる。
等価カーネル
- (3.53)の平均0等方正規分布の事後分布平均を使うと、予測分布の平均は
と書くことができる。ここでとおくと、
というカーネル表現となり、点における事前分布の平均は学習データ目標値の線形結合によって表せることが分かる。この場合のカーネルを平滑化行列(smoother matrix)あるいは等価カーネル(equivalent kernel)という。このように学習パターン目標値の線形結合によって予測を行う回帰関数を線形平滑器(linear smoother)という。
- 等価カーネルは学習データに含まれる入力値に依存する。あるにおける予測分布の平均は、各学習データ点に対してその距離に応じてに近いほど大きく重み付けが施された目標値の線形結合によって得られる。すなわち、近くのエビデンスを遠くのエビデンスよりも大きく重み付けする。このような局所性は、局所化された正規基底関数に限定される特性ではなく、局所化されない多項式あるいはシグモイド基底関数の場合にも観察できる。
- また、との共分散は等価カーネルの定数倍となるため、互いに近接した点における予測平均同士には高い相関があり、逆に離れた点同士の場合には低い相関しかない。
- 等価カーネルを明示的に定義する基底関数の集合を導入する代わりに、局所化されたカーネルを直接定義して予測を行うことが考えられる。第六章のガウス過程を参照。
- 等価カーネルは学習データ目標値に対して与えられる重みを定義するものなので
を満たす。もし基底関数が線形独立で(すなわち基底関数よりもデータ点のほうが数が多い)基底関数の一つが定数関数である(これはバイアスパラメータに相当する)ならば、学習データに完全に一致して予測平均は1となり、上と同じ結果になる。ただし重みの和が1であっても個々のカーネル関数は負であることもありうるので、必ずしもその結合は凸結合となるとは限らない。
- 等価カーネルは当然のことながら、以下のカーネル関数の一般的要件を満たす。
3.4節 ベイズモデル比較
- 最尤法における過学習の問題は、ベイズ的手法においてはモデルのパラメータの値を点推定する代わりにそれらを周辺化することによって回避することが出来る。この場合、評価のためのデータは不要なため利用可能なデータの全てを学習のために利用することができる。また、複数の複雑性パラメータを学習過程において同時に決定することができる。例えば第七章の関連ベクトルマシンは、各学習データごとに一つの複雑性パラメータを持つベイズモデル。
- ベイズ的手法によるモデル選択においては、確率についての和および積の法則の一貫した適用によってモデル選択についての不確かさを確率によって表現する。例えば個のモデルを比較したい場合には、あるモデルによって生成されたデータを観測した場合のモデル選択に関する事後確率分布は
で表される。ここで事前分布はもともとのモデル選択の不確かさを表し、ここでは全てのモデルが均等な確率を持つものと仮定する。をモデルエビデンス(model evidence)または周辺尤度(marginal likelihood)といい、二つのモデルエビデンス間の比をベイズ因子(Bayes factor)という。モデルエビデンスはデータが当該モデルによってどの程度よく説明されうるかの程度を表す。
- 事後分布が分かれば、予測分布は
となる。これはモデル毎予測分布のそれぞれの事後確率による重み付け和と見ることができ、混合分布(mixture distribution)の一例。例えば、同様に確からしい2つのモデルがあり、その一つはの周辺で尖り、もう一つはの周辺で尖っているとすると、全体としての予測分布はこれら二点の周辺で尖っている双峰的分布となる(で尖る単峰的分布になるのではない)。
- モデル平均化のための単純な近似法の一つとして、予測を行うのに最も確からしい単一のモデルのみを使用する方法があり、これをモデル選択(model selection)という。例えばパラメータに依存するモデルの場合、モデルエビデンスは尤度関数をについて積分したものすなわち
サンプリングの観点からこれを見ると、周辺尤度はそのパラメータが事前か分布からランダムにサンプリングされたモデルがデータ集合を生成する確率として捉えることが出来る。また、エビデンスはベイズの定理の右辺の分母すなわち正規化定数に一致することにも留意すべき。
(つまり、上の式はベイズの定理
の両辺にエビデンス(右辺の分母)を掛け、両辺をについて積分したもの。)
- 想定しているモデル集合の中に真のモデルが含まれているとの前提の下では、平均的にはモデルエビデンスを最大化することで最適なモデル選択が可能。
- ベイズ的アプローチは他の多くのパターン認識の手法同様、モデルの形状についての仮定に大きく左右される。特に事前分布が変則である場合にはエビデンスによる最適化は困難になる。したがって実際上は評価用データを別途用意したほうが無難。
3.5節 エビデンス近似
- ベイズ的線形基底関数モデルにおいては、ハイパーパラメータの事前分布を導入し、についてと同様にそれらについての周辺化によって予測を行う。しかし、個々のパラメータについてはともかく、これら全てのパラメータについて積分を行うことは解析的に不可能。そこでパラメータについて積分することによって得られる周辺尤度関数(marginal likelihood function)を最大化することによってハイパーパラメータの値を決定する近似法を考える。この手法は統計学においては経験ベイズ(empirical Bayes)などと呼ばれ、機械学習の分野においてはエビデンス近似(evidence approximation)と呼ばれる。
(に対する依存は簡明のため省略してある)
事後分布がおよびにおいて鋭く尖っているなら、上式のようにおよびについて積分する代わりに、およびをそれぞれおよびに固定することによって以下の近似が得られる。
ベイズの定理により
だから、もし事前分布が比較的平らならば、事後分布の極大値は周辺尤度関数を最大化することによって得られる。これによってクロス評価法によることなく学習データのみによってこれらのハイパーパラメータの値を決定することができる。
- 対数エビデンスを最大化する方法としては、エビデンス関数を微分して0と等置することで得られるおよびについての方程式を解く方法と、期待最大化(expectation maximization(EM))と呼ばれる手法を用いる方法とがあり、両方とも同じ解に収束する。
エビデンス関数の評価
- 周辺尤度関数はについての積分
によって得られるところ、その対数は
となる(計算略)。対数エビデンスはデータに対する当てはまりの良さを反映しかつ単純なモデルを指向する性質を持つ。
エビデンス関数の最大化
- (3.86)を最大化するを求める。だから固有ベクトル方程式
は固有値を持つ。対称行列の行列式はその固有値の積に等しいから、
従って
およびは両方ともに依存しの陰形式解だからこれを定めるのに§3.3.1の反復法を用いる。この際、行列は一定なのでその固有値は最初に一度だけ計算すればよく、後はステップごとに倍すれば足りることに注意。
- 再度強調すると、この方法ではを決定するのに学習データしか必要ではなく、最尤法の場合のようにモデル複雑性を決定するために別途評価用のデータを用意する必要がない。
- についても上と同様に対数周辺尤度関数(3.86)を最大化することによって(の場合同様、反復的手法が必要)これを定めることができ、
となる。
の値が決まればについても同様。
有効パラメータ数
- は正定値行列でその固有値は正だから、。な場合にはは1に近く対応するはML解の成分に近い。このような場合、そのパラメータはデータによって有効に決定される(well determined)という。逆にそうでない場合、尤度関数は当該パラメータの値の変化に対してあまり反応しないので、その事前分布における初期値は小さく設定される。従ってはデータによって有効に決定されるパラメータの個数を表していることになる。
- 最尤推定による正規分布の分散は
であるのに対し、ベイズ推定による場合は
となり、後者は不偏である点が前者と異なっていた。同様のことが線形回帰モデルの場合にも言える。最尤推定による場合のに代えてベイズ線形回帰の場合にはとなり、これによって前者に含まれるバイアスを修正していることになる。
3.6節 固定基底関数の限界
非線形基底関数の線形結合から成るモデルは、最小二乗問題についての閉形式解の存在やベイズ的扱いの容易さなどの利点があるものの重大な限界を有している。問題はデータが観測される以前に基底関数が固定されてしまっていることにあり、その結果として入力空間の次元に対してしばしば指数オーダで基底関数の必要数が増加してしまう(次元の呪い)。
しかしながら二つの点が救いとなる。一つは、データベクトルは入力変数間の強い相関によってそれ自身の次元は入力空間のそれよりも小さい非線形多様体の近くに存在することが多い。もう一つは、目標変数はデータ多様体の可能な方向のうちの少しにしか強い依存をしていないこと。ニューラルネットワークは基底関数が反応する入力空間内の方向を選択することでこの性質を利用することができる。
しかしながら二つの点が救いとなる。一つは、データベクトルは入力変数間の強い相関によってそれ自身の次元は入力空間のそれよりも小さい非線形多様体の近くに存在することが多い。もう一つは、目標変数はデータ多様体の可能な方向のうちの少しにしか強い依存をしていないこと。ニューラルネットワークは基底関数が反応する入力空間内の方向を選択することでこの性質を利用することができる。