労働者不足や業務の効率化・高度化・新しいビジネスモデル構築などの経営課題に対処するため、さまざまな事業・業務領域でAIの導入が急速に進んでおり、今後さらに普及が拡大すると予想されます。一方で、AIのデータ処理過程のブラックボックス化、学習データの品質が低いことに起因するミスリード、セキュリティ対策の不足による情報漏えい、非倫理的な利用によるプライバシーの侵害や差別の助長などに関する懸念が生じています。また、AI導入の目的が不明瞭なまま戦略不十分で場当たり的な対応をすることで、結果的に必要なデータの蓄積が不十分などのプロセス、インフラに起因する課題がボトルネックとなり、導入を推進できない、期待した成果が得られないなどの問題も発生しています。
このような状況を踏まえ、内閣府は「人間中心のAI社会原則」を公表しています※1。これには、(1)人間中心の原則、(2)教育・リテラシーの原則、(3)プライバシー確保の原則、(4)セキュリティ確保の原則、(5)公正競争確保の原則、(6)公平性、説明責任および透明性の原則、(7)イノベーションの原則が掲げられています。
先進的な企業では、創造するビジネスが社会に与える正のインパクトや負のインパクトにつながるリスクとオポチュニティを考慮し、「人間中心のAI社会原則」を目標とした、正負のバランスをコントロールした合理的かつ適切なガバナンスおよびマネジメントシステムを整備・運用していく「AIガバナンス」を実装することで、AI活用を推進している事例も出てきています。
本稿では、前述したAI導入における課題の解決アプローチとして、「人間中心のAI社会原則」を目標として、企業が具備すべき「AIガバナンス」について検討します。
なお、文中の意見にわたる部分は著者の私見であり、PwC あらた有限責任監査法人または所属部門の正式見解でないことをあらかじめお断りします。
世界各国においてAIガバナンスに関わる議論は活発化しています。2017年のアシロマ原則※2、GAFAによるAI原則、前述した人間中心のAI社会原則など、従来からAI原則に関わる議論はありましたが、国際的なコンセンサスがおおむね形成されつつます。現在は、その原則をどう社会に実装していくかのAIガバナンスの議論に進んできています。例えば、欧州委員会は2021年4月に、AIを規制する枠組みの規則案を発表しました※3。AIをその用途や目的などを考慮して類型化し、リスクに応じた要件や規制の導入が提唱されており、法制度化に向けた審議が行われています。
一方、日本においては、「統合イノベーション戦略2020」※4に記載されているように、「AI社会原則の実装に向けて、国内外の動向も見据えつつ、わが国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、わが国のAIガバナンスの在り方を検討する」こととなっています。国際的な動向を踏まえ、経済産業省は、現時点で望ましいと考えられる日本のAIガバナンスの在るべき姿を、「我が国のAIガバナンスの在り方ver1.1」として取りまとめ、2021年7月9日に公表しました。また同日、「AI原則実践のためのガバナンス・ガイドラインver1.0」(以下、AIガバナンス・ガイドライン)がパブリックコメントに付されました。また、国立研究開発法人産業技術総合研究所から、AIの設計開発における品質マネジメントに関する「機械学習品質マネジメントガイドライン」が2020年6月に公表されています※5(その後、2021年7月に第2版が公開されています)。
AIガバナンス・ガイドラインは、リスクベースアプローチを採用しており、正負のインパクトに鑑みて、組織の習熟度に応じて取り組むサービス内容や必要な改善を検討するためのガバナンス態勢の検討を促すものです。EUで検討されているいわゆるAI法案のような法的拘束力のある横断的な規制とは異なり、非拘束なガイドラインです。当ガイドラインは、組織において求められるガバナンス態勢について、個別具体的な状況に依存しない一般的かつ客観的な「行動目標」と、事業者の個々のAIサービスの個別事情に応じて取捨選択して評価する「乖離評価」等から構成されています(図表1)。提示されている行動目標と乖離評価の概要は以下のとおりです。
前述したように、AIガバナンスについて自社の状況を把握するとともに内外へ説明し、同意や合意を得ることが、AIを用いたサービスを普及・促進していくために重要になります。当ガイドラインは、自社の習熟度に応じてガバナンス態勢を段階的に整備・改良していくものであり、過度な規制がイノベーションの阻害にならないように配慮されたものです。特に新規事業やスタートアップ企業にとっては、AIガバナンス・ゴールも見据えつつ、合理的で効果的な対応をするにあたって参考となるものです。
伝統的に機械学習等を用いたモデル開発における確認事項・手法として、モデルに投入するデータの正確性・網羅性確認、過学習防止のためのバイアスの確認、精度のモニタリングと改修モデルの検討といったことは暗黙の了解として実施されてきました。
一方、クラウド等の出現による環境変化が進んだことで、頑強で汎用的に適用できるモデルの型や簡易に実現できるソフトウェアの登場、ストレージ容量の増加や処理能力調達が容易になったこと等により、大がかりな機器類や高価な設備を必ずしも必要とせず、モデルの開発現場も必ずしも数理学的な専門知識がなくても利用できるなどの大衆化および大規模化が起きています。
その結果、暗黙的であるにせよ、これまでは当然に実施されていたことが行われず、単にソフトウェアにデータを投入し、得られた結果を安易に受け入れる等の不十分で誤った使い方をしている場合もあるかもしれません。
それは、モデル開発における確認事項・手法の抜け漏れはシステム開発の1つとしてのプロセスに組み込んだり、標準化したりすることで解決するかもしれません。モデル開発時の品質管理については、前述の「機械学習品質マネジメントガイドライン」を参考にすることで標準化を推進していくことも考えられます。また、バイアス確認をするようなツールはすでにあるので、検証は可能になってきています。
ただし、それらは単一なソリューションを提供するときの確認事項・手法であり、AIサービスは、その学習データやインプットデータ等も含め、単一の組織だけで完結しないサービス展開が広がっていくと想定されます。その観点でガバナンスを適切に行っていくためには、サービスやマネジメントシステムの設計にコントロールやガバナンス機能を盛り込むことが重要になります。そのためには、サービスのサプライチェーンワイド、企画から運用というバリューチェーンワイドの目線から正負のリスクを検討し、コントロールやガバナンス機能を構築していくことが重要になります。
そのため、本来的なAIガバナンスを検討する際には、前述した行動目標にも挙げられていた組織の環境やリスクを考慮して、ステークホルダーを意識しながら、AIガバナンス・ゴールを設定し、ゴールとの乖離を評価して、組織の習熟度にあわせてAIガバナンスを醸成していく戦略が必要です。また、当該ガバナンスを醸成するためには、経営の指導力と実行力に依存することが大きいです。
経営者がAI活用に期待するものとして、新規ビジネスの創造や業務プロセスの改革があります。経営者の期待に応えるために、AIを活用する初期段階においてはそれぞれの現場で検討を始めることがあります。一方で、「AIガバナンス」は個々に実施していくものではありません。例えば、各現場でデータベース等を作成し重複してしまったり、AIに用いられるモデルの精度や説明責任を担保するために、各現場で基準を設けることは合理的ではありません。また、組織の壁を越えてAIに投入するデータの品質を担保したり、プライバシーへの配慮を欠いたりすることで個人の権利を侵すことがないよう、データガバナンスやプライバシーガバナンスで掲げられるデータ利活用時におけるガバナンスも重要になります。特にAIの活用が進展してくると前述したように自組織のみに限らず、不特定多数のステークホルダーとの共創を伴ったり、サプライチェーン全体を巻き込んだりするケースも想定されます。
そのためにも、経営層はどのようなAIガバナンスを構築すべきか、自組織が置かれている状況を把握することがまず重要です。すなわち、AIを活用していく上で、創造するビジネスの正負のインパクトを把握することです。その上で、正負のインパクトにおけるステークホルダーの許容水準がどこにあるのかを見定めるためのコミュニケーションと自組織のAIガバナンス・ゴールを段階的に定めることが重要になります。
また、管理者は設定されたAIガバナンス・ゴールからの乖離の評価(Gap Analysis)について対応していくとともに、現場から訴求されたAI開発における環境や関与すべき社内外のステークホルダーへの影響や潜在的なものも含めた期待を踏まえて、経営者へ適切にエスカレーションしていくことが必要になります。例えば、課題が単純なソリューションであれば、必要なデータや環境が揃っていて、作業する人がいれば事足りるかもしれません。場合によっては、既存業務の判断の一部をAIシステムで代替できるかもしれません。一方で、事業単位・全社単位または業界横断や社会における課題を解決していく複合的なサービスや業務プロセスそのものを大きく変革していくような組織的なゴール設定をした場合は、必要なデータや環境および関連するステークホルダーは大きく変わってきます。
特にサービスの設計次第では、AIに人の代わりに判断を委ねた場合は、AIが自己成長していく特性も相まって、その判断の透明性や説明責任を果たすことが重要になってきます。経営者は、組織としてAIを用いた際に「人間中心のAI社会原則」を考慮して、何をどこまで実現するのか、その結果社会に与えるインパクトは何かを、消費者、政府、ビジネスパートナー、サードパーティ等のステークホルダーの立場から認識する必要があります。
そのためにも、単に個々のAIシステムのモデルに着目するだけではなく、ステークホルダーとの接点となり得るインプット・アウトプットとなるデータから関係するプロセス、システム群や人・組織(システム・オブ・システムズ)を設計のうえ、その機能ぶりを監視するガバナンスを構築していくことが必要になります。よって、ゴール設定から評価の当該サイクルをアジャイルで繰り返して習熟し、環境変化とリスクを再分析しながら組織のゴール設定を成長させていくこと(図表3)に経営層自らが戦略的に意思決定することが求められます。
AI原則は明らかになってきているものの、企業レベルでの取り組みへの落とし込みについては大きな課題となっていることを踏まえて、PwCあらたでは、まずは現状課題を迅速に把握・整理し、対応方針の検討材料とするためのAIガバナンス診断サービスを用意しています。経済産業省から公表された「AI原則実践のためのガバナンス・ガイドライン ver.1.0」の内容を参考に、PwCグローバルネットワークとPwC あらたの知見を加えた診断項目を作成し、企業のAIガバナンスの習熟度を項目ごとに診断します(図表4)。
先に提供を開始した「データガバナンス診断ツール」と併用すれば、AIサービスのサプライチェーンワイドの診断も可能になります。また、診断に加え、診断後のロードマップ策定とガバナンス態勢やマネジメントプロセスの構築支援も併せて提供します。PwCあらたは、AI、DX、データのガバナンス構築の豊富な支援実績と、PwC Japanグループの知見を活かし、経済産業省のガイドラインなどを参考にAIガバナンスの構築や強化を行う企業の支援により一層力を注ぎ、人間中心のAI社会の実現に向けて貢献してまいります。
※1 経済産業省「デジタルガバナンス・コード」、2020年11月9日
https://www.meti.go.jp/shingikai/mono_info_service/dgs5/pdf/20201109_01.pdf
※2 経済産業省「DX認定制度の概要及び申請のポイントについて」2021年8月6日
https://www.meti.go.jp/policy/it_policy/investment/dx-nintei/0806_dx-certifi
cation_point.pdf
※3 PwC Japanグループ「PwCあらた、経済産業省が定めるDX認定制度で認定され、 企業のDX認定対応支援を本格化」2021年8月12日
https://www.pwc.com/jp/ja/press-room/dx-certification210812.html
※4 PwC Japanグループ「「DX認定」対応支援」
https://www.pwc.com/jp/ja/services/assurance/process-system-organization-datamanagement/risk-governance-advisory/dx-governance/dx-recognition-support.html
※5 経済産業省「「DX銘柄2021」「DX注目企業2021」を選定しました!」2021年6月7日
https://www.meti.go.jp/press/2021/06/20210607003/20210607003.html
※6 財務省「令和3年度税制改正 3法人課税」2021年3月https://www.mof.go.jp/tax_policy/publication/brochure/zeisei21/03.htm#a01
※7 PwC Japanグループ「PwC Japan、DX投資促進税制をはじめとする 企業のDXと関
連税制対応への本格的サポートを開始」2021年5月10日
https://www.pwc.com/jp/ja/press-room/dx-investment-promotion-tax-system-sup
port210510.html
PwCあらた有限責任監査法人
ガバナンス・リスク・コンプライアンス・アドバイザリー部
パートナー 村永 淳
PwCあらた有限責任監査法人
システム・プロセス・アシュアランス部
パートナー 宮村 和谷
PwCあらた有限責任監査法人
システム・プロセス・アシュアランス部
マネージャー 鮫島 洋一