AIが下す判断は説明可能か?

最近、AIの「説明可能性」に関する話題を見たり聞いたりする機会が増えている。ここで言う「説明可能性」とは、AIが下した判断がどのような理由によるものなのかが解釈できる性質のことである。

この話題が広く出回るようになった背景には、機械学習を代表とするAIがビジネスに実応用される場面が増えていること、特にディープラーニングという技術が世間で認知・活用されるようになったことがある。

ディープラーニングとは、人間の脳内にある神経細胞が電気信号を伝達する働きを模した数理モデルを実現するアルゴリズムであり、大量なデータからそのデータの特徴を自動的に学習することが可能な技術だ。

例えば、ディープラーニングを利用すれば、ある画像が「ネコ」なのか「イヌ」なのかや、更にその細かな品種などを、どのような特徴に着目すべきかを人間が教えずともデータから自動で学習し、人間よりも高い精度で判別することが可能になる。

ディープラーニングは革命的に強力な技術だが、その性質のために実社会で活用しようとした場合に問題となることもある。それが「説明可能性」に関する問題である。学習済みディープラーニングのモデルが、画像を「ネコ」と判断した根拠・理由をヒトが知ることはできない。正確には、判断根拠の特徴量は存在し見ることもできるが、それが何を意味しているのかヒトには解釈不能なのだ。

このように、「どのような観点から判断を下したか」を解釈できないため、ディープラーニングやその他の説明可能性を持たない手法(注1)はブラックボックスAIと呼ばれることがある。ブラックボックスAIは「なぜ?」が説明できないため、説明責任が求められるような場面における利用はかなり慎重になる必要がある。事実、ブラックボックスAIの判断誤りに対し、AIの不安視がニュース化されることもある(参考1, 参考2)。AIが広く活用される世の中では、AIが下す判断に対する根拠の説明が求められる場面は増える。こうした背景から、各国でAIの説明責任を考えることの重要性が社会的に議論されている(参考3, 参考4,)。また研究界でも様々なアプローチで説明可能性を持つAI、通称ホワイトボックスAIに関する研究も行われている(参考5)。

現状ブラックボックAIでは予測に対する説明ができない一方で、高精度な分類や予測が可能であるため、判断の根拠を説明する必要がないようなユースケースには適している。現状のAIの特性を理解し、「なぜその判断が下ったか」「次に同じような過ちを起こさないためにはどうすればいいか」を、ヒトが理解することができるような仕組みを設計することがますます重要になるだろう。


注1. : AIのモデルの係数を可視化する、などから意味を解釈するケースもあるが、多くの場面ではビジネスサイドで求めている解釈と重ならないため、ここではあえて説明可能性を持たないと表現している

参考

  1. 自動運転車の事故はだれが責任をとるべきか, 東洋経済オンライン, 2019

  2. 「福祉手当の不正受給者」を予測するAIが“人権侵害”で差し止め, Yahoo!ニュース, 2020

  3. AIネットワーク社会推進会議報告書2019, 総務省, 2019

  4. Explainable Artificial Intelligence (XAI), DARPA

  5. 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」, 一般社団法人人工知能学会, 2018