最近の投稿

アーカイブ

カテゴリー

最近のコメント

  1. にんじん
  2. アバター
  3. アバター
  4. タロウ
  5. アバター

AI

時代が求める「説明可能なAI」はブラックボックスを照らす光明だ

福田 慎一郎

ChatGPTをはじめとして、AIが私たちの生活にもたらす変化は目覚ましいものがあります。しかし、その背後で、AIによってどんな判断が下されているのか、全て理解することは難しいのも事実です。そこでよく聞くのが「ブラックボックス化」という言葉です。これは、AIがどのようにしてその結論に至ったのか、外から見てもよくわからない状態を指しています。この問題に対処するために、最近「説明可能なAI(XAI)」が注目されています。今回は、この「説明可能なAI(XAI)」について解説します。

説明可能なAI(XAI)とは?

説明可能なAI(Explainable artificial intelligence:XAI)とは、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術です。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的のために研究されている技術の総称です。この「説明可能なAI(XAI)」という言葉は、2017年4月から始まったアメリカ合衆国のDARPA主導による研究プロジェクトをきっかけに、広く浸透しました。従来のAIは、判断過程がブラックボックスになっているので、判断理由を説明できません。しかし、説明可能なAIを使うことで、AIの決定プロセスがわかりやすく説明され、人間がその理由を理解できるようになります。これにより、AIの透明性が向上し、人々がAIの動作をより信頼できるようになるのです。

従来のAIのイメージと説明可能なAIのイメージ
図1:(左)従来のAIのイメージ、(右)説明可能なAIのイメージ

参考:説明可能なAI – Wikipedia
https://ja.wikipedia.org/wiki/%E8%AA%AC%E6%98%8E%E5%8F%AF%E8%83%BD%E3%81%AAAI#cite_note-ooetc_p20-6

説明可能なAIは、近年注目を集める研究領域で、出版された論文数を見てもその注目度が窺えます。図2は、Google Scholarの関連論文(総説も含む)のヒット数です。ここ数年で、説明可能なAI関連の論文数が急増したことが分かります。同様に、プレプリントサーバーのarXivの結果(図3)を見ても、説明可能なAIに関する論文が上昇傾向にあり、注目度が年々高まっています。このように、説明可能なAIは、今後AIにおける重要な要素になることが予想されます。

Google Scholarでの「Explainable AI」のキーワード検索のヒット数(2024年3月時点)
図2:Google Scholarでの「Explainable AI」のキーワード検索のヒット数(2024年3月時点)
arXivでの「Explainable AI」のキーワード検索のヒット数(2024年3月時点)
図3:arXivでの「Explainable AI」のキーワード検索のヒット数(2024年3月時点)

説明可能なAIの代表的な手法LIME

続いて、説明可能なAIの手法のLIME(Local Interpretable Model-Agnostic Explanations)について見てみます。この手法は、2016年に以下の論文で紹介されました。LIMEは、分類を処理するAIと組み合わせることで、AIが示した結果に足して人間が理解できる根拠の画像を示します。この論文から内容を抜粋して、LIMEがどのように予測の根拠を示したかを紹介します。

[1602.04938] Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin, “Why Should I Trust You?”: Explaining the Predictions of Any Classifier
https://arxiv.org/abs/1602.04938

論文の筆者らは、オオカミとハスキー犬の分類の誤りについて、被験者が正しく洞察できるかを調査しました。この実験ではオオカミの写真には背景に雪があり、ハスキー犬の写真には雪がない写真を選び、AIモデルに学習させました。その後、追加画像に対して、AIモデルは動物の色や位置、ポーズなどにかかわらず、雪がある場合は「狼」と分類し、そうでない場合は「ハスキー」と分類しました。この不適切なAIモデルを意図的に訓練し、被験者がそれを検出できるか評価しました。実験では、最初に分類結果(図4(a))を提示し、その後、被験者に次の3つの質問をしました。

  1. このアルゴリズムが実世界でうまく機能することを信頼するか?
  2. 信頼する理由は?
  3. このアルゴリズムが、狼とハスキー犬の写真をどのように区別していると思うか?

その後、説明付きの画像(図4(b))を示して同じ質問をしました。またこの被験者は大学院生で、機械学習コースを受講した経験があります。評価者は、被験者の質問(3)で、「モデルが、雪や背景を分類の条件に使用していること示しているか?」どうかを判断しました。説明を見た後、被験者のほぼ全員が正しい洞察を特定しました。また分類器に対する信頼度が大幅に低下しました。この実験は、AIの知識がある学生を対象に実施されましたが、今後は研究や実証実験が進むことで、AIの知識がない人が見ても分かる根拠を示す説明可能なAIが登場することが期待できます。

説明可能なAIに関する実験の流れ
図4:説明可能なAIに関する実験の流れ
狼と分類したハスキー犬の画像と、LIMEが示した分類の根拠となる画像
図5:(a) 狼と分類したハスキー犬の画像と、(b) LIMEが示した分類の根拠となる画像

出典:[1602.04938] Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin, “Why Should I Trust You?”: Explaining the Predictions of Any Classifier
https://arxiv.org/abs/1602.04938

根拠となる画像を見る前と後の実験結果
図6:根拠となる画像を見る前と後の実験結果

1行目-質問(1)の結果⇒根拠となる画像を見る前と後で、AIモデルの信頼度が大幅に低下している。
2行目-質問(3)の結果⇒根拠となる画像を見ることで、ほとんどの人が、AIモデルが雪や背景を分類の条件に使用していることを洞察できている。
出典:[1602.04938] Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin, “Why Should I Trust You?”: Explaining the Predictions of Any Classifier
https://arxiv.org/abs/1602.04938

想定される説明可能なAIのユースケース

次に、説明可能なAIのユースケースについて考えてみましょう。

医療・製薬

医療業界において説明可能なAIの応用は、MRI画像から癌を見つける医師の診断支援ツールとして非常に有効です。例えば、MRI画像から疾患の兆候を検出する際、AIがどのような特徴を根拠にその結論に至ったかを医師に説明することで、診断の正確性を格段に向上させられます。さらに、AIが検出した異常に対する詳細な説明は、医師が患者へ説明する際にも有用な情報となり、患者の理解と信頼を深める助けとなります。また、新薬の開発プロセスにおいて、AIを用いて薬剤が特定の病気に対して有効である可能性の高い標的を同定する場合、その推論プロセスを解析し、より有望な候補の早期発見に繋げられます。

製造業

製造業における説明可能なAIの応用は、生産プロセスの最適化、品質管理の向上に大きな可能性を秘めています。例えば、製造ライン上での製品の品質検査をAIが担当する場合、AIが特定の製品を不良品と判定した根拠を提供することで、生産プロセスのどの段階で問題が発生しているかを、正確に特定できます。これにより、製造業者はプロセスを微調整し、品質の一貫性を保ちながら生産効率を向上させられます。

以上のように、説明可能なAIの応用は、医療・製薬業界では診断精度の向上、新薬開発の加速が期待されます。また、製造業では、生産プロセスの最適化、品質管理の向上など、多岐にわたるメリットをもたらします。

AIの信頼性を握る、説明可能なAIの重要性

説明可能なAIによって、現在のAIに対する信頼がさらに向上し、より一層AIが社会に広まることが期待されています。また、導入が広まることで、さまざまな分野で新しい価値を生むでしょう。説明可能なAIの今後の動向に注目です。

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

ABOUT ME
福田 慎一郎
福田 慎一郎
ワイン大好き社会人
2021年BlueMemeに新卒で入社。2023年10月からネットワークの統計解析に関する研究開発業務に携わっています。2024年4月から九州大学大学院システム生命科学府に社会人博士学生として入学。科学とアートが好きで、休みの日は美術館や博物館によく行きます。入社してからワインにはまりました。
福田 慎一郎の記事一覧

記事URLをコピーしました