AI活用の拡大とともに注目される「説明可能なAI」――第2回 説明可能なAI(Explainable AI)がもたらすビジネス価値

2022-06-14

I. はじめに

AIの産業界における活用が大きく進展し、社会実装が進む一方で、AIの性質に起因する潜在的なインシデントリスクが顕在化しつつあります。本コラムではこうしたリスクへの対応策として注目されている「説明可能なAI(Explainable AI)」について、3回にわたり解説していきます。

第1回では、「なぜ説明可能なAI(Explainable AI)が必要なのか」というテーマで、AIインシデントやグローバルでの規制動向を紹介し、AIをビジネス活用するうえで重要な説明可能なAI(Explainable AI)の概要を説明しました。

第2回である今回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、説明可能なAI(Explainable AI)に企業が取り組むメリットを論じます。

第3回はAIの導入、AIモデルの改善を図る際に考慮すべき説明可能性の重要性、説明可能性の影響要因、およびモデルの説明手法など、技術的要素も交えながら解説します。

なお、今回の内容は、2018年にPwC英国が発表した"Explainable AI: Driving business value through greater understanding"の一部を翻訳・再構成したものとなります。

II. 説明可能なAI(Explainable AI)がもたらすビジネス価値とは

AIの活用によって企業はビジネスを加速し、競合優位性を獲得することが可能となります。それでは、AIをより有効に活用し、ステークホルダーからの信頼獲得やパフォーマンスを向上させるために、説明可能なAI(Explainable AI)は何ができるのでしょうか。

PwCでは、機能の最適化におけるモデルの性能と意思決定、動作の保証におけるモデルの制御と安全性、原則の維持におけるAIの信頼性と倫理性、法令の遵守における説明責任と法規制、という4つの領域の8項目を考慮することで、説明可能なAI(Explainable AI)がビジネスにメリットをもたらすことができると定義しています(図表1)。

図表1 説明可能なAI(Explainable AI)がビジネスにメリットをもたらす領域

図表1 説明可能なAI(Explainable AI)がビジネスにメリットをもたらす領域

ここからは8つの項目それぞれについて説明します。

1.機能の最適化

1-1. モデルの性能

AIのパフォーマンス最大化に向け、潜在的な弱点を理解することが重要です。AIモデルが何をしているのか、なぜ誤った判断をするのか、それらのAIの挙動を理解することで、容易にAIモデルを改善できます。

一例を挙げると、DeepMind社は、AIモデルがなぜ特定の判断をしているのかを理解できるようにすることで、Alpha Goを最適化し、2016年にプロ囲碁棋士を破りました。仮にAIがブラックボックスのままであれば、Alpha Goがプロ囲碁棋士を破ることは不可能だったでしょう。

説明可能性は、モデルの欠陥やデータの偏りの検出に活用できるツールであり、AIに関わる全てのユーザーに対する信頼を築きます。また、予測の検証により、モデルの改良や課題解決に向けた新たなインサイトの獲得も可能にします。モデルが何をしているのか、なぜその予測に至るのかを理解すれば、モデルやデータセットの偏りを検出することは容易となります。

1-2. 意思決定

AIをはじめとする機械学習のアプリケーションは、ビジネスにおける意思決定の自動化に活用されています。また、分析によるインサイトを得るために活用する場合も増えています。

例えば、場所、営業時間、天候、時期、取扱商品、店舗サイズ等のデータを使って、大規模小売チェーン全体の店舗売上を予測するモデルを構築し、さまざまな気象条件での特定の日にちの店舗全体の売上を予測することができます。このとき、説明可能なモデルを構築すれば、売上に貢献している要因が何であるかを把握し、それによりさらなる売上向上施策を検討することが可能となります。

機械学習の利用法のもう一つの例として、顧客離反の予測が挙げられます。

自社の顧客が来月中に競合他社に90%の確率で乗り換えるという予測があるとします。割引サービスを提供することで顧客を維持できるかもしれませんが、乗り換えの原因がカスタマーサービスであった場合、割引をしても顧客維持にはつながりません。価格とは無関係の理由で顧客を失っていることに気づかず、不必要に効果のない高価なインセンティブを提供してしまうかもしれません。顧客離反を予測するモデルが「顧客が競合他社に乗り換えるのは、過去12カ月間にカスタマーサービスに電話がつながるまで47分も待ったからだ」と予測できるなら、顧客維持に向け適切な対処をとることが可能になります。

2.動作の保証

2-1. モデルの制御

概念実証(PoC)から本格的な導入に移行するためには、AIシステムが特定の意図した要件を満たしていること、そして不要な挙動がないことに確信を持つ必要があります。AIシステムでエラーが起きた場合には、是正措置を講じるため、あるいはAIシステムを停止させるために、エラーの原因を特定する必要があります。

説明可能なAI(Explainable AI)では、パフォーマンスを監視し、エラーにフラグを立て、AIシステムを停止させるメカニズムを提供することで、AIの制御に役立ちます。

データプライバシーの観点からは、説明可能なAI(Explainable AI)は、許可されたデータのみが合意された目的のために使用されていることを確認し、必要に応じてデータを削除することを可能にします。

AIの開発者は、ブラックボックス化したシステムに対して「データを渡す」ことで問題を解決しようとすることがよくあります。AIモデルが出力を提供するために使用しているデータと機能を可視化すれば、発生した問題を確実に理解し、制御のレベルを維持することができます。顧客とのインタラクションを通じて学習するシステムの場合、説明可能なAI(Explainable AI)の解釈可能性により、不利益を被る学習の傾向を明らかにすることができます。

2-2.安全性

AIシステムがより強力になり、普及するにつれ、その安全性とセキュリティに関する懸念が出てきています。こうした懸念は意図的な非倫理的設計、エンジニアリングの見落とし、ハッキング、AIが動作する環境の影響など、さまざまな要因にさかのぼることができますが、説明可能なAI(Explainable AI)はこれらの不具合を特定するのに役立ちます。

説明可能なAI(Explainable AI)に加え、セキュリティチームと密接に連携し、ハッキングや学習・報酬システムの意図的な操作を防ぐことも重要です。

3.原則の維持

3-1. AIの信頼性

AIの信頼性を高めるには、アルゴリズムが正しい理由で正しい判断をしていることを、ステークホルダーに証明する必要があります。説明可能なアルゴリズムではある程度の証明はできますが、最先端の機械学習評価手法と解釈可能なモデル・アーキテクチャを用いても、社会的な背景が影響する問題は解決されません。アルゴリズムは、過去のデータセットに基づいて学習されるからです。

地震などの災害や新技術など、問題を根本から見直すような出来事が起こり、過去の学習データが無効になることがあります。モデルの挙動を直感的に理解することで、モデルの責任者は、モデルが失敗しそうなときにそれを察知し、適切な行動を取ることができるようになります。

また、説明可能なAI(Explainable AI)は、解釈可能なモデルの安定性、予測可能性、再現性を強化することで、信頼関係の構築にも寄与します。AIシステムが安定した一連の結果を提供し続ければ、ステークホルダーからの信頼は次第に増していきます。AIシステムに対する信頼がいったん確立されると、エンドユーザーは、見たことのない他のアプリケーションもこれまでより信頼しやすくなります。この一連の流れはAIの開発において特に重要です。なぜなら、モデルを活用することで市場環境が変化し、将来の予測が無効になる可能性があるからです。

3-2. 倫理性

ソフトウェア開発のライフサイクルにおいて、エンジニアや開発者は機能要件に注力し、ビジネスチームはAI導入のスピードアップやパフォーマンスの向上に注力しています。倫理的な影響やその他の意図しない結果は、ソフトウェア開発において後回しにされる傾向があります。後回しとなることを未然に防ぐため、AIの学習時に最初から倫理観を組み込み、その後も説明可能なAI(Explainable AI)の評価を通じてAIの挙動を監視することが重要となります。

PwCは、AI開発サイクルの設計段階に倫理的配慮を組み込み、倫理的な見落としから生じるリスクに備えるための明確なガバナンスと統制を行うことを目指しています。早期にリスクを理解し軽減するためには、ビジネスマネージャーとソリューションオーナーの間で説明責任を共有することが重要です。

4.法令の遵守

4-1. 説明責任

AIシステムの判断に対して、誰が責任を負うのかを明確にすることが重要です。そのため、AIシステムがどのように動作して意思決定に至ったか、どのように学習して人間が意図した通りに機能できるかを明確にする必要があります。

AIによるインシデントが発生した際には、AIの開発者から利用者までの関係者を整理し、インシデントの原因に関わる関係者が責任を負うこととなります。AIが不適切なタスクを実行する決定を下した人物に責任がある場合もあれば、十分な安全制御を構築できなかったソフトウェア開発者に責任がある場合もあります。

4-2. 法規制

現在、AIの規制は緩やかですが、国や業界団体が中心となり、ガバナンス、正確性、透明性、説明可能性について規制を策定し発表しています。またそのほかに、消費者の保護も規制を策定するうえで重要となります。

業界団体や規制当局にとって、AIの発展とともに規制を策定し、産業分野ごとにAIのエコシステムへ反映させることが重要となってきます。そのためにはこれらの多くの機関で、専門知識を習得する必要があり、技術コミュニティを代表する専門機関や学術機関が、技術専門家として政策への助言を行うケースが増えています。

III. おわりに

今回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、企業が説明可能なAI(Explainable AI)に取り組むメリットを論じました。

上記で説明した8項目を考慮することで、企業は説明可能なAI(Explainable AI)をビジネス上のメリットの獲得につなげられるでしょう。

次回は、AIの導入、AIモデルの改善を図る際に考慮すべき説明可能性の重要性、説明可能性の影響要因、およびモデルの説明手法など、技術的要素も交えながら解説します。

主要メンバー

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

深澤 桃子

マネージャー, PwCコンサルティング合同会社

Email

インサイト/ニュース

20 results
Loading...

顧客が真に求めるパーソナライズされたロイヤルティ体験を提供するには 金銭的報酬だけではない顧客一人一人に合わせた価値ある体験を提供することの重要性

顧客とのロイヤルティを育むことは、組織に価値をもたらし、収益性を高めます。本稿では、PwCが実施した顧客ロイヤルティに関する調査からの洞察を紹介するとともに、日本企業が取るべき対応策を解説します。

愛媛県:県内企業の変革と成長を支援する「地域共創」の新しい取り組み(ポストコロナ経営力強化支援事業)

PwCコンサルティングが知見を提供したポストコロナ経営力強化支援事業の取り組み内容と、生成AI活用が地域にもたらす成果への期待について、事業関係者である愛媛県の有田尚文氏、株式会社いよぎんデジタルソリューションズの小野和也氏、株式会社コラボハウスの松坂直樹氏とPwCコンサルティングの担当者が語り合いました。

Loading...