AI活用の拡大とともに注目される「説明可能なAI」――第1回 なぜ説明可能なAI(Explainable AI)が必要なのか

I. はじめに

AIの産業界における活用は大きく進展しており、消費向上と生産性向上の二つの側面でグローバル経済に大きく貢献する見込みとなっています。2030年までのAIの世界的なGDPへの影響は15.7兆ドルになると予想されており、その内訳は消費向上への貢献が約60%、生産性への貢献が約40%となる見込みです。特に米国・中国におけるAI活用によるGDPへのインパクトが大きく、日本においても、2030年までに実質GDPの約18.2%(132兆円)の押し上げ効果が期待されています。

AIの社会実装が進む一方、AIの性質に起因する潜在的なインシデントリスクが顕在化しつつあります。近年では当該リスクへの対応策として、「説明可能なAI(Explainable AI)」が注目されています。

本コラムでは3回にわたり説明可能なAI(Explainable AI)について解説していきます。

第1回である今回は、「なぜ説明可能なAI(Explainable AI)が必要なのか」というテーマで、AIインシデントやグローバルでの規制動向を紹介し、AIをビジネス活用するうえで重要となる説明可能なAI(Explainable AI)の概要を説明します。

第2回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、説明可能なAIに企業が取り組むメリットを論じます。

第3回はAIの導入、AIモデルの改善を図る際に考慮すべき説明可能性の重要性、説明可能性に影響を与える要因、およびモデルの説明手法など、技術的要素も交えながら解説します。

II. Responsible AI(責任あるAI)が求められる背景

1. 増加するAIインシデント

AIの社会実装が進む中で、AIリスクを起因とするインシデントが増加しています。近年発生しているAIインシデントは大きく6つに分類することができ、人間中心(倫理)に関するリスク、プライバシーに関するリスク、レピュテーションリスク、セキュリティリスク、公平性のリスク、説明責任/透明性に関するリスクがあります。

中でも、人種や性差別等の倫理に関するAIインシデントが多く発生しています(図表1)。例えば米国では、警察が容疑者特定のために利用している顔認識AIにおいて、特定の人種・性別に対して誤認率が高いことが発覚し、物議を醸しました。

一方、国内では、新しい技術の活用に対する慎重姿勢が存在することから、AIに個人データを利用することに対してプライバシー侵害や倫理面での批判が高まるケースが多く発生しています。

図表1 代表的なAIインシデント

グローバルでの AIインシデント発生時期

2. Responsible AI(責任あるAI)に関わるグローバルの規制動向

インシデントの増加を受けてResponsible AI(責任あるAI)への注目が高まり、過去5年間においてAIに関する規制やガイドラインが次々と発表されています(図表2)。

図表2 AIに関する規制やガイドライン

急速に変化する グローバルの規制環境

国際機関・各国がそれぞれ検討を進めており、今後は規制の運用フェーズに入ると予想されます。そのため、企業がAIシステムの社会実装を進めるうえでも、規制に関する国際動向を十分に注視する必要があります。

次に各国政府・国際機関における具体的な規制の動向について説明します。

米国では、2019年2月に公表された”The national artificial intelligence research and development strategic plan: 2019 update”において、AIの公平性、透明性、説明責任について、法律、倫理、哲学等の多様な観点から研究を進める必要性が述べられています。また中間的ルールの制定も一部地域で進んでおり、サンフランシスコ市では、警察による顔認証技術の利用を禁止する条例を定めています。他の地域においても、今後さらに中間的ルールの整備が進むと考えられます。

EUでは、2019年4月、AI技術者が信頼性を担保するための7つの主要原則を“Ethics guidelines for trustworthy AI”にて定義しました。2020年2月には、より具体的なアプローチを記載した”White Paper on Artificial Intelligence - a European approach to excellence and trust”を発表しています。これらの原理・原則を基に、2021年4月、中間的ルールとして”Proposal for a regulation laying down harmonised rules on artificial intelligence”を発表しています。このAI規制枠組み規則案では、AIのリスク別に規制が設定されており、違反した場合には罰金を科されることになります。

国際機関の動向に関して、特筆すべき動きとして「Global Partnership on AI」(以下、GPAI)の設立が挙げられます。2020年6月、責任あるAIの開発と利用に取り組む国際的なイニシアチブとして、政府・国際機関・産業界・有識者等からなる官民多国間組織であるGPAIが設立されました。GPAIでは「責任あるAI」「データガバナンス」「仕事の未来」「イノベーションと商業化」「AIとパンデミック対応」の5つの作業部会が設置されており、今後政府や各産業界が取り組むべき領域の特定と実施すべき推奨事項の提案が行われています。これらの取り組みが具体化される中で、国際的にもAIの責任ある利用・開発に関するガバナンスの在り方がより詳細化されていくことが想定されます。

3. 説明可能なAI(Explainable AI)の重要性

2022年1月、PwCではAIの取り組み内容や活用状況に関して、売上高500億円以上でAIを導入済み、または導入検討中の企業の部長職以上300名を対象にアンケート調査を実施した結果、国内でAIを一部または広範囲に業務へ導入している企業が53%、AIのPoCが実施済みかつ導入準備中の企業が11%など、AIの活用が加速しています。企業によるAI活用が主流になるにつれて、AIが企業にとって何を意味するのか、その可能性をどのように活用できるのか、そしてどのようなリスクがあるのか、というステークホルダーからの質問がますます増えています。組織はResponsible AI(責任あるAI)を実現することを通じて、AIテクノロジーが倫理基準に適合し、公的に受け入れられる範囲内で動作することを確認する必要があります。AIにより導き出される結果に自信を持ち、ステークホルダーの信頼を獲得し、最終的にビジネス活用するには、アルゴリズムが出力結果を導出した理由を知る必要があります。そこでAIに透明性をもたらし、結果の導出過程を人間が解釈できるようにする「説明可能なAI(Explainable AI)」が重要視されています。

III. 説明可能なAI(Explainable AI)とは

1. 概要

安心してAI活用を推進するためには、データ・システムおよびビジネスモデルが、開発者・ユーザー・規制当局にとって透明性を有し、解釈可能なものでなければなりません。そこで、説明可能なAIを用いてAIシステムの透明性と解釈可能性の向上に取り組むことが重要になります。

2. 透明性(Transparency)

透明性を担保するには、AIシステムのトレーサビリティを確保する必要があります。データ収集や処理、使用されるAIアルゴリズム、さらにはAIが出力結果を導出する過程など、AIシステムの一連のプロセスを可能な限り明文化します。これにより、仮にAIの決定が判断を誤る場合でも理由を特定でき、将来的に発生しうる間違いを防ぐことができます。

3. 解釈可能性(Explainability/Intelligibility)

AIシステムが人々の生活に与える影響が大きくなるにつれて、AIシステムの意思決定プロセスに関して解釈可能な説明を求められます。説明はタイムリーであり、かつステークホルダーの専門知識に適合する必要があります。

4. 説明可能なAI(Explainable AI)を実現するための技術

説明可能なAI(Explainable AI)に対するニーズの高まりに呼応し、近年では技術面の研究も多く行われています。

主な研究は、特定の入力に対する予測の判断根拠を示すもので、例えば数値データであれば予測にどの変数がどの程度寄与していたのか、画像データであれば画像のどの部分が予測に寄与していたかを示します。

説明可能なAI(Explainable AI)を担保するためのモデルの説明手法として、LIME(Local Interpretable Model-Agnostic Explanations)やSHAP(Shapley Additive Explanations)があり、それぞれの詳細については第3回にて解説します。

IV. おわりに

今回は「なぜ説明可能なAI(Explainable AI)が必要なのか」というテーマで、AIインシデントやグローバルでの規制動向の紹介と、AIをビジネス活用するうえで重要となる説明可能なAI(Explainable AI)の概要についてお伝えしました。

次回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、説明可能なAIに企業が取り組むメリットを論じます。

主要メンバー

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

深澤 桃子

マネージャー, PwCコンサルティング合同会社

Email

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}