4.7 その他の解釈可能なモデル

解釈可能なモデルの種類は増加し続けており、どれぐらいの数があるかわかりません。 線形回帰や決定木、単純ベイズ分類器のようなシンプルなモデルもあれば、解釈性の低いモデルを組み合わせたり変更することでより解釈性を高めたような複雑なものもあります。 特に後者のタイプのモデルは現在、高頻度で開発・発表されており、それらについていくのは大変です。 この章では単純ベイズ分類器とk近傍法について軽く紹介します。

4.7.1 単純ベイズ分類器 (Naive Bayes Classifier)

単純ベイズ分類器は条件付き確率のベイズの定理を用います。 特徴量ごとに、クラスに属する確率を特徴量の値に基づいて計算します。 単純ベイズ分類器は各特徴量が互いに独立しているという強い(=単純な)仮定を置いていることになります。 単純ベイズは条件付き確率モデルであり、クラス \(C_k\) の予測確率を次のようにモデル化します。

\[P(C_k|x)=\frac{1}{Z}P(C_k)\prod_{i=1}^n{}P(x_i|C_k)\]

Z はすべてのクラスの確率の合計が 1 になるようにするための規格化定数です(そうしなければ確率として扱えなくなります)。 クラスの条件付き確率は、クラスの確率とクラスが与えられたときのそれぞれの特徴量の確率の積を Z で正規化したものです。 この式はベイズの定理を用いて導出できます。

単純ベイズ分類器は特徴量同士の独立性を仮定しているため解釈可能なモデルであり、モジュールレベルで解釈が可能です。 条件付き確率を用いているため、各特徴量がクラスの分類にどれぐらい寄与しているかが非常に明確です。

4.7.2 k近傍法

k近傍法はデータ点の近傍を推論に使用する回帰や分類の手法です。 分類の場合、k近傍法はインスタンスの近傍の中で最も多くのものが属するクラスに割り当て、回帰では近傍の出力の平均をとります。 正しい k の値を見つけたり、近傍を定義するために使用される距離の算出方法を決定するには、工夫が必要です。

k近傍法は観測データに基づく学習アルゴリズムであるため、この本で紹介されている他の解釈可能なモデルとは異なるモデルと言えます。 k近傍法はどのようにすれば解釈できるのでしょうか。 まず、k近傍法には学習すべきパラメータが存在しないため、モジュールレベルでの解釈はできません。 さらに、k近傍法は局所的なモデルであり、明確に学習すべき大域的なパラメータや構造が存在しないため、大域的なモデルの解釈は困難です。 それでは、局所的には解釈が可能でしょうか。 推論について説明するには、使用された k 個の近傍を見つける必要があります。 モデルが解釈可能かどうかは、単純に、データセットの中の単一のインスタンスを解釈できるかどうかによります。 インスタンスが数百、数千の特徴量を持つ場合、それは解釈できないでしょう。しかし、少数の特徴量しかない、あるいはインスタンスの特徴量をいくつかの重要なもののみに削減できるのであれば、k近傍法は良い説明を与えることができます。