Interpretable machine learning
要約
著者による序文
1
イントロダクション
1.1
物語の時間
稲妻は二度と打たない
信用失墜
フェルミのペーパー・クリップ
1.2
機械学習とは何か?
1.3
専門用語
2
解釈可能性
2.1
解釈可能性の重要性
2.2
解釈可能な手法の分類
2.3
解釈可能性の範囲
2.3.1
アルゴリズムの透明性
2.3.2
全体的なモデルの解釈可能性
2.3.3
モジュールレベルのモデルの全体的な解釈可能性
2.3.4
単一の予測に対する局所的な解釈
2.3.5
予測のグループに対する局所的な解釈
2.4
解釈可能性の評価
2.5
説明に関する性質
2.6
人間に優しい説明
2.6.1
説明とはなにか
2.6.2
よい説明とは何か?
3
データセット
3.1
自転車レンタル (回帰)
3.2
YouTube スパムコメント (テキスト分類)
3.3
子宮頸がんのリスク要因(クラス分類)
4
解釈可能なモデル
4.1
線形回帰
4.1.1
解釈
4.1.2
例
4.1.3
可視化による解釈
4.1.4
個々の予測に対する説明
4.1.5
カテゴリカル特徴量のエンコーディング
4.1.6
線形モデルは良い説明を与えるか?
4.1.7
スパースな線形モデル
4.1.8
長所
4.1.9
短所
4.2
ロジスティック回帰
4.2.1
線形回帰モデルを分類のために使うと何がいけないか。
4.2.2
理論
4.2.3
解釈性
4.2.4
例
4.2.5
長所と短所
4.2.6
ソフトウェア
4.3
GLM、GAM、その他
4.3.1
結果が正規分布に従わない場合 - GLMs
4.3.2
相互作用
4.3.3
非線形効果 - GAM
4.3.4
長所
4.3.5
短所
4.3.6
ソフトウェア
4.3.7
さらなる拡張
4.4
決定木
4.4.1
決定木の解釈
4.4.2
例
4.4.3
長所
4.4.4
短所
4.4.5
ソフトウェア
4.5
決定規則
4.5.1
単一の特徴量による規則学習 (OneR)
4.5.2
Sequential Covering
4.5.3
Bayesian Rule Lists
4.5.4
長所
4.5.5
短所
4.5.6
ソフトウェアと代替手法
4.6
RuleFit
4.6.1
解釈と例
4.6.2
理論
4.6.3
長所
4.6.4
短所
4.6.5
ソフトウェアと代替手法
4.7
その他の解釈可能なモデル
4.7.1
単純ベイズ分類器 (Naive Bayes Classifier)
4.7.2
k近傍法
5
モデル非依存(Model-Agnostic)な手法
5.1
Partial Dependence Plot (PDP)
5.1.1
例
5.1.2
長所
5.1.3
短所
5.1.4
ソフトウェアと代替手法
5.2
Individual Conditional Expectation (ICE)
5.2.1
例
5.2.2
長所
5.2.3
短所
5.2.4
ソフトウェアと代替手法
5.3
Accumulated Local Effects (ALE) Plot
5.3.1
モチベーションと直感
5.3.2
理論
5.3.3
予測
5.3.4
例
5.3.5
利点
5.3.6
欠点
5.3.7
実装と代替手法
5.4
特徴量の相互作用
5.4.1
特徴量の相互作用とは
5.4.2
Friedman の H統計量の理論
5.4.3
例
5.4.4
利点
5.4.5
欠点
5.4.6
実装
5.4.7
代替手法
5.5
Permutation Feature Importance
5.5.1
理論
5.5.2
特徴量の重要度は、学習データとテストデータのどちらで計算するべきか
5.5.3
例と解釈
5.5.4
利点
5.5.5
欠点
5.5.6
ソフトウェアと代替手法
5.6
グローバルサロゲート (Global Surrogate)
5.6.1
理論
5.6.2
例
5.6.3
長所
5.6.4
短所
5.6.5
ソフトウェア
5.7
Local Surrogate (LIME)
5.7.1
表形式データにおける LIME
5.7.2
テキストデータに対するLIME
5.7.3
画像データに対するLIME
5.7.4
長所
5.7.5
短所
5.8
Scoped Rules (Anchors)
5.8.1
Anchor の発見
5.8.2
複雑性と実行時間
5.8.3
表形式データの例
5.8.4
長所
5.8.5
短所
5.8.6
ソフトウェアと代替手法
5.9
シャープレイ値 (Shapley Values)
5.9.1
一般的なアイデア
5.9.2
例と解釈
5.9.3
シャープレイ値の詳細
5.9.4
長所
5.9.5
短所
5.9.6
ソフトウェアと代替手法
5.10
SHAP (SHapley Additive exPlanations)
5.10.1
定義
5.10.2
KernelSHAP
5.10.3
TreeSHAP
5.10.4
例
5.10.5
SHAP 特徴量重要度 (SHAP Feature Importance)
5.10.6
SHAP Summary Plot
5.10.7
SHAP Dependence Plot
5.10.8
SHAP 相互作用値 (SHAP Interaction Values)
5.10.9
Clustering SHAP values
5.10.10
長所
5.10.11
短所
5.10.12
ソフトウェア
6
例示に基づいた説明手法
6.1
反事実的説明 (Counterfactual Explanations)
6.1.1
反事実的説明の生成
6.1.2
例
6.1.3
長所
6.1.4
短所
6.1.5
ソフトウェアと代替手法
6.2
敵対的サンプル (Adversarial Examples)
6.2.1
手法及び例
6.2.2
サイバーセキュリティーの観点
6.3
prototype と criticism
6.3.1
理論
6.3.2
例
6.3.3
長所
6.3.4
短所
6.3.5
コードと代替手法
6.4
Influential Instances
6.4.1
Deletion Diagnostics
6.4.2
影響関数 (Influence Functions)
6.4.3
長所
6.4.4
短所
6.4.5
ソフトウェアと代替手法
7
ニューラルネットワークの解釈
7.1
学習された特徴量
7.1.1
特徴量の可視化
7.1.2
ネットワークの解剖
7.1.3
利点
7.1.4
欠点
7.1.5
ソフトウェアとその他の資料
8
解釈可能な機械学習の未来
8.1
機械学習の未来
8.2
解釈性の未来
9
著者貢献
10
この本の引用
11
翻訳
12
謝辞
References
R Packages Used for Examples
Published with bookdown
Interpretable Machine Learning
Chapter 3
データセット
この本を通して、全てのモデルや手法は、オンライン上に無料で公開されているデータセットに対して適用されています。 それぞれのタスク(クラス分類、回帰、テキスト分類)で様々なデータセットを使用しています。