
本稿では、生成AIの業務活用に向けた取り組みの全体像や、生成AIガバナンスの重要性、PwC Japan有限責任監査法人(以下、当法人)における投資や研修などの取り組み、社内外における活用事例を紹介します。
なお、本稿における意見の部分は筆者の私見であり、当法人および所属部門の正式見解ではないことをあらかじめお断りいたします。
社内で生成AI(Generative AI)を業務に活用するには、大きく次のようなステップがあります(図表1)。
生成AIツールの導入を検討する際には、生成AIの特徴を理解し、最初にどのような業務に利用するのかというイメージを持っておくことが重要です。次に、生成AIの利用にあたっては、ガバナンス体制を整備し、運用できるよう検討することも必要です。
通常、生成AIツールの導入時には、そのリスクや活用方法を学ぶための研修を行います。そしてどのような業務でも活用できる一般的なユースケース(レベル1)から、個別業務に特化したユースケース(レベル2)へと活用範囲を広げ、最終的には生成AIを前提とした業務プロセスに向けて見直していきます(レベル3)。これにより、単なる既存業務の置き換えではなく、業務そのもののやり方を変革し、新たなビジネスの創出や業務プロセスの変革をもたらすことができます。
図表1:社内での生成AIの業務活用に向けたステップ
出所:PwC作成
当法人は、生成AIを適切に活用していくための投資も重要と考えており、最新のAIエージェント搭載の監査プラットフォームの構築を進め、監査人の仕事のやり方を変革し、その強化を図っています。広く業務全般に利用する「ChatPwC」(対話型生成AI)などの汎用的な生成AIツールの利用、特定業務特化型の生成AIツールの開発、生成AIのリスクの理解やAIリテラシー向上などのための学習にも大きな投資を行っています。
また、データの利活用に生成AIを用いて新たなソリューションを生み出すことも検討しており、データ活用のための仕組みの構築にも投資しています。データの取得からクレンジング、無毒化、活用、廃棄に至るまでのルールおよびガバナンスを構築し、またそれを扱うシステムやプロセスの整備も進めています。
人財面においては、プロセスデジタル化人財、データ利活用人財、プロダクトマネージャー人財の育成および採用に今後大きく投資し、生成AIを含めたデジタル活用を広げていきます。
これらにより、ガバナンスの効いた生成AIやデータの幅広い活用、アシュアランス業務の高度化を目指します。
生成AIの利用には、その潜在的な影響力と高い技術力から、適切なガバナンスが必要不可欠です。生成AIは、テキスト、画像、音声などのコンテンツを自動生成する能力を持ち、創造性や効率を大幅に向上させる一方で、誤情報の拡散やプライバシー侵害、偏見の助長などのリスクも内在しています。そのため、倫理的かつ法的な枠組みを整えることが求められています。
日本国内では、生成AIのガバナンスに関する取り組みが進んでいます。まず、一般社団法人日本ディープラーニング協会が提供する利用ガイドラインは、データ活用の倫理や法的側面を重視し、AI開発者や利用者に対して責任あるデータ利用を促しています※1。さらに、経済産業省と総務省により「AI事業者ガイドライン」も策定されており※2、企業がAI技術を導入・運用する際のベストプラクティスが示されています。
また、日本政府も積極的に制度設計を進めています。具体的には、AI戦略会議、AI制度研究会、AIセーフティ・インスティテュート(AISI)や各省庁が中心となり、AI技術の適切な利用を促進するための枠組みを検討中です。これには、個人情報保護法の改正や、新たな法規制の導入が含まれます。
※1 一般社団法人日本ディープラーニング協会「生成AIの利用ガイドライン」
※2 経済産業省、総務省「AI事業者ガイドライン(第1.0版)」(2024年4月)
海外でも、生成AIに対するガバナンスが強化されています。特に欧州連合(EU)は、2024年8月に「欧州(EU)AI規制法」(EU AI Act)を発効し、高リスクAIシステムに対する厳格な規制を導入しようとしています。この規制は、透明性、公正性、安全性を確保するための要件を設定しており、生成AIもその対象となります。
米国では、NIST(米国標準技術研究所)が「AIリスク管理フレームワーク」(AI RMF)を提供しています。これにより、企業や政府機関がAI技術のリスクを評価・管理するための具体的なガイドラインが整備されています。
中国は「次世代人工知能発展計画(2017年)」を策定し、2030年までにAI分野で世界のリーダーになることを目指しています。国家の安全保障や社会統制を重視しつつも、倫理的なガバナンスの重要性も認識しています。
国際的な取り組みとしては、OECD(経済協力開発機構)が2019年に発表した「OECD AI原則」があります。これには、透明性、公正性、説明責任、安全性などの重要なガイドラインが含まれています。2024年5月には生成AIの発展を踏まえて、偽情報の拡散や知的財産権の侵害への対応の内容を組み込んで改定されました。
また、ISO(国際標準化機構)もAI技術に対する標準規格の策定を進めており、特に注目されているのがISO 42001です。
ISO 42001は、AIシステムのガバナンスと管理に関する国際標準規格であり、AI技術の倫理的利用を確保するための枠組みを提供します。この規格は、以下の主要な要素を含んでいます。
ISO 42001の認証制度は、第三者機関が企業や組織のAIシステムがこの規格に準拠しているかを評価し、認証を与えるものです。この認証を取得することで、企業はAI技術の倫理的利用と安全性を保証し、信頼性の高いビジネスパートナーとしての地位を確立することができます。
以上のように、生成AIの利用には適切なガバナンスが必要であり、国内外でさまざまな取り組みが進められています。倫理的かつ法的な枠組みを整えることで、AI技術の持つポテンシャルを最大限に引き出し、社会に貢献することが期待されています。
当法人では、前述の国内外の生成AIガバナンスに関する枠組みや法規制の動向を注視し、生成AIを革新的かつ適切にビジネスへ役立てていくため、活用とリスク管理のバランスを考慮したガバナンスの構築に取り組んでいます。
具体的には、生成AIの開発、提供、利用にあたって従業員が遵守しなければならないビジネスルールを基本にしつつ、ビジネス価値の創出に寄与するユースケースや生成AIアセットの蓄積、共有化、高度化を後押しするプロセスや基盤の整備に力を入れています。
ビジネスルールでは、生成AIへデータを入力する際の情報セキュリティに関する注意事項や、生成AIが虚偽を含んだ回答をしてしまうハルシネーションに対して、必ず根拠や裏付けを確かめ、人間が最終的な判断を行い、利用することなどが示されています。
さらに、生成AIの利用者・開発者には研修の受講を必須とし、生成AIへの理解底上げと同時にビジネスルールの浸透を徹底しています。ビジネスルールおよび研修は、生成AIの技術的発展、生成AIに関する枠組みや法規制の動向に合わせて随時更新しています。
また、クライアントサービスの提供や社内業務のために生成AIを利用したプロダクトの開発や導入を行う際には、生成AI固有のリスクについて評価します。具体的には、生成AIに学習または検索させるデータがプライバシーやバイアスに配慮していることや、AIシステムの透明性や説明責任が確保されていることなど、生成AI固有のリスクに対応したシステム設計になっていることを確かめています。これらのリスク評価には、必要に応じてNIS(Network InformationSecurity)、法務部門、リスク管理部門の専門家が参加し、情報セキュリティ、知的財産権の保護、業務品質の確保なども検討しています。
当法人では、最新の生成AIツールを従業員に広く提供し、生成AI活用によって社内業務を効率化するだけでなく、そのリスクを正しく理解し、適切な生成AIガバナンスを整えていきます。そして、クライアントへの新たな価値提供につながる生成AIサービス開発を加速させていきます。
当法人の生成AIに関する研修は、AIが人間のように自律的に行動するAIエージェント時代を見据え、「Human in theloop(人とAIを統合したシステム)」の概念のもと、人間とAIの協働環境の整備や、生成AIを理解するための知識習得が不可欠であると考えて設計されています。
具体的には、以下のとおり3段階で研修を構成しています。
これらの研修は、PwCグローバルネットワークで作成され、日本のニーズに合わせてカスタマイズしています。例えば、多くの大規模言語モデルが英語圏のデータを使って学習されていますが、当法人の研修では日本語特有の表現を用いてプロンプトを作成しています。また、研修の効果を最大限に引き出すことができるよう、座学だけでなくハンズオン形式で実施しています。これにより、受講者は研修後、スムーズに実務で生成AIを活用し始めることができます。さらに「Touch & Try」と「Prompt Design Workshop」に参加した受講者については、自身が講師役として、所属部門へ同研修を展開できるよう、プレゼンテーション資料とファシリテーターガイドを整備しています。
加えて、AIの社会的影響を考慮し、Inclusion & Diversityの観点から、生成AIとバイアスの関係について理解を深める社内セミナーも実施しました。技術面だけでなく、倫理面からもAIを理解することが重要だと考えているからです。このように、当法人では、単なる業務効率化ツールとしてではなく、社会との関わりを含めた包括的なAIリテラシー向上を目指した研修を展開しています。
当法人における生成AI導入施策とその過程で見えてきた課題、およびその解決策の一例を紹介します。
生成AIの特徴の1つに、低い導入障壁があります。特に対話型生成AIの場合は自然言語を介して操作可能なため、従来のITツールと比べ導入しやすいという特徴があります。当法人では、生成AIの導入促進を図り、以下の施策を実施しました。
現時点での対話型生成AIは、AIへの指示の粒度を適切に設定する必要があります。そこで、導入障壁をさらに下げるため、効果を即座に実感しやすい「ゴールデンプロンプト」を定義しました。これを4つのカテゴリ(要約とアクション提示、思考の壁打ち、文章添削、翻訳)に絞り、迅速に対話型生成AIの利用を開始することができました。
次に社員同士の交流を促進し、リテラシー向上を目的としたユーザーコミュニティを立ち上げました。ここでは日々のプロンプト事例や関連ニュースが共有され、日本のみならずAPAC(アジア太平洋)などのグローバル情報も参照することができます。
一方、新たな課題の1つに、PwCのPurpose「社会における信頼を構築し、重要な課題を解決する」に関連する「信頼」のゆらぎがあります。例えばある文章に対して、「これを書いたのはあなたか、それともAIか」と社内から質問がありました。これは、人とAIの出力の境界線が曖昧になりつつあることを示唆しています。従来の「人対人」を前提としたコミュニケーション構造に「AI」という新たな要素が介在することで、混乱が生じてしまいます。
解決策の1つとして、「Human in the loop」の概念の普及に取り組みました。これはAIを介在させつつ、最終的な判断や責任は人間が担うという原則を明確にし、組織内で共有する概念です。具体的には、AIの出力結果を必ず人がレビューするなど、批判的思考を奨励することを指します。
人とAIの特性を活かし、相互に信頼を醸成する新たな働き方のモデルを模索しようというこの取り組みは、人とAIの協働に向けた第一歩となりました。
生成AI出現以前のIT技術、つまり業務プロセスを細分化してプログラムロジックに落とし込むアプローチでは、高度な業務知識を有した専門家の判断を自動化することは困難でした。しかし、生成AIを活用することにより、従来実現しにくいとされていた専門性の高い業務の自動化を、実現できるようになりました。
生成AIのアウトプットの正しさを専門家が確認する仕事は必要ですが、生成AIの活用により、専門性の高いメンバーが従来の仕事の生産性を向上させ、より付加価値の高い仕事に時間を割くことができるようになります。付加価値の高い仕事とは、企業個別の事情を考慮した戦略・方針立案、業務プロセスの構築などが挙げられます。
また、生成AIの活用には、個々の生産性を向上させるという効果だけでなく、高い水準で業務品質を均質化させるという効果も期待できます。
当法人において、会計士やコンサルタント等の専門家の生産性向上および高い水準での業務品質の均質化を実現している生成AIの活用事例を2つ紹介します。
事例① 新リース会計基準に則したリース識別契約書をインプットとして、その契約がリースに該当す るか否かの判定と根拠の2つをアウトプットさせる |
事例② ESGギャップ分析企業の開示情報をインプットとして、サステナビリティ 関連の開示基準に適合しているか否かの判定と根拠の2 つをアウトプットさせる |
事例①では、リース取引の識別にかかる時間を従来に比べて約6割減少させることができ、会計士がクライアントの会計方針づくりなど、より付加価値の高い支援に注力できるようになりました。また、知識・経験が豊富なメンバーの知見をツールに組み込むことで、経験の浅いメンバーも高い品質の判断を実施することができ、高い水準での業務品質の均質化を従来よりも効率的に実現できています。
ただし、事例①および事例②ともに、生成AIのアウトプットをクライアントサービスに利用する場合、当法人のプロフェッショナルが全てのアウトプットを自らの目で確認することを必須としています。
このように、生成AIを活用することで、専門家の生産性向上や業務品質の均質化といった大きなメリットを得ることができます。しかしながら、生成AIの活用プロジェクトは、こうしたメリットを得る前に頓挫してしまうことがよくあります。
理由は、生成AIのアウトプットが、専門家が期待する精度に至らないためです。アウトプットの精度が低いと、利用者が生成AIを利用する意味を感じられず、利用されなくなってしまいます。そうなると、当然ながら前述のメリットは得られません。
そのため、専門業務を生成AIに実施させるうえで、まず乗り越えなければならない課題はアウトプットの精度を上げることです。大まかな質問(例えば、リース識別であれば「この契約はリースに該当しますか?」といったもの)をプロンプトとしてインプットしても、現時点で通常利用可能なモデルでは、専門家が価値を感じられる精度の回答を得ることは難しいです。
精度を上げるための基礎的な方法は、「プロンプトエンジニアリング」と呼ばれるプロンプトの最適化・改善です(図表2)。プロンプトエンジニアリングにはさまざまな手法がありますが、当ケースでは、専門家が判断している視点や観点を分析・言語化したうえでプロンプトを細分化し、さらに用語の定義や判断事例等のガイドを付与することで精度が向上します。
ツールの精度が向上すれば、専門家も自然とツールを利用するようになり、生産性を上げてより価値の高い仕事に専念できるようになります。また、ツールの開発を通じて有識者の視点や観点が共有され、さらにツールの利用を通じてそれらの視点や観点が組織内で広く活用できるようになります。それにより、業務品質が高い水準で均質化していきます。
図表2:プロンプトエンジニアリングのイメージ
出所:PwC作成
専門家の支援ツールとして生成AIを活用することの効果、事例、アウトプットの精度向上策について簡単に紹介しました。当法人は、クライアント向けのアドバイザリーサービスにおいて社内で生成AIを利用するだけでなく、クライアントにおける生成AI利用に関するアドバイザリーサービスも提供しています。
生成AIを業務の中で実際に活用しようとすると、精度の問題の他にもプロンプト実行に要する手間の問題や、生成AIの呼び出しに要する費用の問題に直面することがよくあります。当法人は、これらの課題に対するクライアントごとの最適解を導き出し、生成AIの業務利用促進を支援することが可能です。
事例③:ガバナンス・リスク管理・コンプライアンスおよび内部監査業務における活用
当法人では、ガバナンス、リスク管理、コンプライアンス、および内部監査の業務(以下、GRC関連業務)において、効率化の推進、業務品質の向上、新たなサービスの提供を目的に生成AIを積極的に活用しています。
GRC関連業務では、外部の最新ニュースや法令改正情報、社内の規定類、報告書、契約書、会議音声、議事録などの非構造化データや、異なるシステムからの多様な形式のデータがインプットとして使用されます。また、リスク評価結果、報告書、監査調書などの文書が最終的なアウトプットとして生成されます。
これらの情報は、これまで技術的およびリソースの面で十分に活用されてきませんでした。しかし、生成AIはインプットとアウトプットの両方で優れた処理能力を持つため、今後、多くのGRC関連業務での活用が期待されます。この可能性を最大限に引き出すために、当法人ではAI Center ofExcellence(AI CoE)を設置し、現場の要望を的確に把握しながら、具体的なGRC関連業務への生成AIの適用を推進しています。
また、多岐にわたる専門家が従事するGRC関連業務では、その暗黙知を生成AIのプロンプトとして言語化することで、生成AIの活用を促進しています。すでに実際の業務で生成AIを活用し始めており、以下にその具体例の一部を紹介します。
実証したい要点と監査プログラムを詳細に言語化し、それを生成AIのプロンプトに落とし込むことで、証憑をもとに自動的に監査調書のドラフトを作成しています。これにより、内部監査業務の効率化と標準化が進み、一定の品質を確保しつつ、重要な業務に集中することが可能となっています。
コンプライアンスの専門家が有するリスク評価の知見を言語化し、大量のインタビュー議事録や従業員アンケートの自由記述部分を生成AIで分析しています。これにより、コンプライアンスに関する固有リスク、統制評価、残余リスクの評価を効率化し、標準化を実現しています。
特定の企業に関連するインターネット上のリスク情報を自動的に収集し、生成AIに投入することで、企業に与える影響を要約した月次レポートのドラフトを作成しています。これにより、効率的かつ効果的なリスク管理が可能となっています。
さらに、従来の人による業務の一部を生成AIで代替することで業務の効率化を図るだけでなく、リソースの制約を解消し、新しい価値の提供にも取り組んでいます。例えば、取引の監査対象を抽出するため、契約書の全件レビューを生成AIで実施し、よりリスクの高い取引を監査サンプルとする内部監査のアプローチの実現に向けて、実証実験(PoC)を行っています。
このように、組織内外で生成AIの取り組みを推進し、GRC関連業務のさらなる効率化と品質向上を目指して変革に取り組んでいます。
当法人では、全社員向けの対話型生成AIツール(生成AI活用事例①で紹介)については、引き続き社内の多くのユーザーにリーチし、利用を促すとともに、効果的なユースケースを展開していきます。また、当該ツールに関しては、データ処理・分析機能やユーザーごとにカスタマイズしたチャットボット作成機能などの拡充も予定しており、さらに幅広いユースケースでの利用を目指しています。
また、特定業務への生成AIの組み込みについては、AIエージェントの活用も含めて、より多くの分野に対して個別に最適化を行い、開発および業務適用を進めていきます。
また、クライアントにおける生成AIの利用が今後増加すると予想していますが、それに対するサービス・支援といった観点でもさまざまな取り組みを行い、社会における信頼ある生成AI活用の実現に貢献していきます。
PwC Japan有限責任監査法人
ガバナンス・リスク・コンプライアンス・アドバイザリー部
ディレクター 吉澤 豪
PwC Japan有限責任監査法人
アシュアランス・イノベーション&テクノロジー部
シニアマネージャー 守田 真澄
PwC Japan有限責任監査法人
アシュアランス・イノベーション&テクノロジー部
シニアマネージャー 成 康豪
PwC Japan有限責任監査法人
アシュアランス・イノベーション&テクノロジー部
シニアマネージャー 野嶋 宏樹
PwC Japan有限責任監査法人
リスク・アシュアランス部
シニアマネージャー 鮫島 洋一
PwCビジネスアシュアランス合同会社
アシュアランス・テクノロジー・センター
マネージャー 長谷 淳史
PwCビジネスアシュアランス合同会社
コンプライアンス・テクニカル・ソリューションズAIT部
シニアアソシエイト 大濵 裕也