最終更新日:2021-04-10
【AI用語解説】XAI(説明可能なAI)

XAI(説明可能なAI)
XAI(説明可能なAI)とは、Explainable AIとも呼ばれる、その名の通り、AIの予測結果や推論結果が、説明可能な状態であるAIのモデルであり、その概念を指す言葉です。
XAIの考え方は、DARPAから提唱されたと言われています。
AIにおいては、AIモデルが複雑であることから、どうしてその結果になったのか、を説明ができないAIモデル(いわゆるブラックボックス)が多く存在します。
但し、AIの出力結果を説明できない場合、信頼性の欠如や、安心して活用することができない、改善することができない、など、多くの問題が生じます。
レコメンドなど、出力結果に対して厳密性をそこまで高く求めないAIにおいて問題視されることは少ないものの、自動運転や与信審査など、高精度を求める必要があるAIにおいては、特にこの考え方が重要になると言われています。
そのため、昨今のAI開発においては、このXAI(説明可能なAI)の考え方が広まっており、研究も進んでいます。
なお、このXAIの考え方は既に総務省からも指針として「報告書2018― AIの利活用の促進及びAIネットワーク化の健全な進展に向けて」にて提示されており、以下のように記載されています。
第3章 AIの利活用において留意することが期待される事項②
AI利活用原則案
・
・
⑨ 透明性の原則 [ブラックボックス化]
AIサービスプロバイダ及びビジネス利用者は、AIシステム又はAIサービスの入出力の検証可能性及び判断結果の説明可能性に留意する。
⑩ アカウンタビリティの原則 [受容性]
AIサービスプロバイダ及びビジネス利用者は、消費者的利用者及び間接利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。
