Chapter 1 イントロダクション

本書は(教師あり)機械学習モデルを解釈可能にする手法について解説しています。 文中に数式が出てくることもありますが、数式を理解できなくても手法の裏にある考え方を理解できるでしょう。 本書は機械学習を一から学ぼうとしている人のための本ではありません。 機械学習に初めて触れる人には、基礎を学ぶための教材が多くあります。 書籍では "The Elements of Statistical Learning" by Hastie, Tibshirani, and Friedman (2009) 1、オンライン学習プラットフォームなら coursera.com の Andrew Ng's "Machine Learning" online course がお勧めです。 これらの教材は無料で利用できます。

機械学習モデルの解釈性に関する新しい手法がとてつもない速さで次々に公開されています。 公開された全ての手法についていくのは狂気の沙汰ですし単純に不可能でしょう。 従って、本書では斬新で風変わりな手法を取り上げることはせず、確立された手法や機械学習の解釈可能性の基本的な考え方について説明しています。 これらの基礎知識は機械学習モデルを解釈可能にするための手助けとなります。 本書を読み始めて (若干誇張気味ですが) 5分もあれば、解釈性の基本的な考え方を習得し、arxiv.org に掲載された解釈性に関する論文をよりよく理解し評価できるようになります。

本書は、(ディストピア的な) short stories から始まります。本書を理解するためには必須ではありませんが、あなたを楽しませ、考えさせてくれるでしょう。 次に、解釈可能な機械学習 の概念について紹介します。 どのような時に解釈可能性が重要となるか、どのような説明手法があるかを議論します。 本書で使われている用語は 専門用語 の章で確認できます。 本書で取り上げるモデルや手法の多くは、データセット の章で説明する現実のデータ例を用いて解説します。 機械学習モデルを解釈可能にするひとつの方法は、線形モデルや決定木のような 解釈可能なモデルを用いることです。 もうひとつの選択肢は、どんな教師あり学習モデルにも適用できる モデル非依存の手法 を用いることです。 この章では partial dependence plots と permutation feature importance といった手法を取り上げます。 モデル非依存の手法は、機械学習モデルの入力を変えた時に予測結果がどのように変化するかを計算します。 例示による説明 の章では、モデルの説明としてデータインスタンスを出力するモデル非依存な手法について解説します。 モデル非依存な手法は、全インスタンスに渡るモデルの大域的な挙動について説明するか、個々の予測について説明するかによって、分類できます。 モデルの大域的な挙動について説明する手法には Partial Dependence Plots, Accumulated Local Effects, Feature Interaction, Feature Importance, Global Surrogate Models そして Prototypes and Criticisms のようなものがあります。 モデルの個々の予測については、 Local Surrogate Models, Shapley Value Explanations, Counterfactual Explanations といった手法があり 、関連する Adversarial Examples についても解説します。 モデルの大域的な挙動と個々の推論の両面を説明できる手法として Individual Conditional ExpectationInfluential Instances のようなものもあります。

最後に、解釈可能な機械学習の未来の章で機械学習の将来について楽観的な見通しを示します。

本書は最初から順番に読んでも良いし、興味のある手法のところだけ読んでも良いように書かれています。

楽しんで読んでいただけると幸いです。


  1. Friedman, Jerome, Trevor Hastie, and Robert Tibshirani. "The elements of statistical learning". www.web.stanford.edu/~hastie/ElemStatLearn/ (2009).