Chapter 2 解釈可能性

解釈可能性に数学的な定義はありません。 Miller (2017)3が提言した個人的に好きな(数学的でない)定義は、 解釈可能性とは、人間が決断の要因を理解できる度合いです。 そしてもうひとつが、 解釈可能性とは、人間がモデルの結果を一貫して予測できる程度です 4。 機械学習モデルの解釈可能性が高ければ高いほど、その決定や予測がなされた理由を理解しやすくなります。他のモデルよりも人間が理解しやすい予測をするモデルは、より良い解釈性を持つモデルと言えます。 本書では、解釈可能と説明可能を互換性のある用語としてどちらも使用します。 Miller (2017)と同様に、私は「解釈可能性/説明可能性」と「説明」という用語を区別することには意味がある考えます。 この本では、「説明」という用語を各予測の説明として使用することにします。 人間にとって良い説明と考えられるものを学ぶには 説明についての節を参照してください。


  1. Miller, Tim. "Explanation in artificial intelligence: Insights from the social sciences." arXiv Preprint arXiv:1706.07269. (2017).

  2. Kim, Been, Rajiv Khanna, and Oluwasanmi O. Koyejo. "Examples are not enough, learn to criticize! Criticism for interpretability." Advances in Neural Information Processing Systems (2016).