{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
対話型生成AIが注目を集めており、社会的に大きなインパクトをもたらすことが期待されています。しかし、グローバル企業が生成AIを業務で安全に活用するためには、海外のAI法規制を理解し、生成AIの社内ルールを作成する必要があります。本シリーズは、主にグローバル展開している企業のIT、サイバーセキュリティ、法務部門の責任者に向けて、生成AIのリスクや海外法規制についてご紹介します。
生成AI(Generative AI)は、画像や、文章、音声、プログラムコードなどさまざまなコンテンツを生成することのできるAI(人工知能)を指します。データの特徴を学習して予測や分類などを行う機械学習は、データの特徴を機械自体が判断する深層学習(ディープラーニング)へと発展し、そこからさらに発展したものが生成AIです。学習したデータをもとに識別をしたり、認識をして推論したりするAIが、指示に従ってオリジナルの画像や文章、音声などを生成するものへと大きく進化しました。
2022年は生成AIが社会に大きなインパクトを与えた年だったといえます。私たちがこれまでSF小説でしか我々が想像できなかった世界が、現実的なものとして見えたと思う方も多いのではないでしょうか。2022年4月に画像生成AIモデルであるDALL-E2が一般向けに提供され、続いてMidjourney、Stable Diffusionがオープンソースで提供開始となりました。さらに、同年11月には大規模言語モデル(Large Language Model - LLM)を用いたChatGPTが米国Open AI社からリリースされ、大きな話題となりました。ChatGPTが出現した際の社会への影響は大きく、100万ユーザーを獲得するのに要した日数はわずか5日。2023年1月時点ですでに1億人ユーザーを超えたと言われています。2023年4月にOpen AI社のアルトマンCEOが来日した際には、日本でのユーザー数がすでに100万人を超えたと説明しました。大規模言語モデルを活用した言語生成サービスでは、他に米国や中国のIT大手も続々と生成AIサービスの提供を開始しています。いずれも対話型AIサービスですが、学習データの期間や、情報ソース表示の有無が異なります。また、使っている検索モデルおよび言語モデルも異なるため、文章作成に特化していたり、文章生成に加えてプログラムコードの作成も精度高くできたりするなど、得意なタスクもやや異なります。生成AIの可能性は幅広く、関連する論文や技術、ツールが毎日のように新しく世に出ているため、情報のアップデートが欠かせません。
爆発的な人気を見せているChatGPTですが、Open AI社のアルトマンCEOは2023年5月16日に米国連邦議会上院で、AIのポジティブな面だけではなく、ネガティブな影響についても言及し、他の強力な技術を扱うのと同様に、AIを真剣に扱う必要があると述べました。また、AIが今後、選挙干渉などに悪用されることに懸念を示し、政府が規制面で介入するとともに、特定の能力を持つAIに対しては、その活用においてライセンス登録などの要件を設ける必要があると訴えました。対話型生成AIを生み出した企業のトップからのこのような提言がなされたことを私たちは真剣に受け止め、AIが悪用されたり、それによってヒトが振り回されたりすることがないよう、人知を絞って慎重に考える必要があります。
これまでAIガバナンスを巡る議論で言及されてきたように、学習データやモデルの説明可能性や透明性、公平性、制御可能性、アカウンタビリティなど、留意しなくてはならない範囲は、生成AIが評価対象に加わっても大きく変わらないでしょう。しかし生成AIの大きな特徴として、アクセスがしやすいという点や、人間らしいアウトプットが得られるという点が挙げられます(図表2参照)。これまでのAIと異なり、技術的なバックグラウンドがないユーザーでもすぐに生成AIを活用することができ、また内容の真偽はともかく、まるでヒトが回答してくれているような自然な文章を得ることができます。
それゆえに、ひとたびサイバー犯罪や機密情報の漏洩、大衆扇動などのインシデントが発生すると、そのインパクトは大きなものになる可能性が高いです。また、著作権侵害の問題も確実に複雑なものとなります。2023年5月現在、著作物の学習は日本では違法ではなく、著作物から生成された生成物の著作権についてはルールもなく、学習データの開示なども求められていません。
企業はこのようなリスクや生成AIの技術的な特性を理解したうえで、安全に運用する必要があります。例えば人事における判断を行う場合や、ヒトのグループにある種の評価(スコアリングなど)を行う場合など、その結果に対する説明が求められるような事象には、従来の統計的手段を用いるなどの考慮が必要です。また、生成物は必ずヒトが目視で確認し、責任をもって活用しなければなりません。
比較的リスクが少ない活用例としては、文章の要約や翻訳、会議の議事録の作成、メールマガジンやプレスリリースなどの文章作成を含む高度な事務作業が挙げられます。企業内でChatGPTなどの対話型生成AIの活用可能性についてアンケートをとると、このような事務作業を効率化するために活用することを希望する社員は多いでしょう。しかし、詳しく声を聞いてみると、インプットに対して対話型生成AIは常に正しい判断をしてくれると誤解している方もいるように思います。AIガバナンス担当者は、いま一度社内での情報共有を徹底する必要があります。
想定すべき深刻なリスクとして、生成AIの軍事転用が挙げられます。少し前からドローンやロボットなどのツールが戦場で活用され、AIがヒトの代わりに戦場へ派遣されるようになりました。今後はAIに関する競争力が世界の覇権を左右するとも言われ、戦場におけるAIの活用がさらに進むものと想定されます。また、生成AIの悪用により偽のプロパガンダを容易に作成することができるため、大衆扇動を実行することにより、戦争へと導かれてしまう可能性も考えられます。また、ウクライナのゼレンスキー大統領が自国の兵士に向けて降伏を呼びかける偽動画が拡散されるという事例が発生しましたが、このような偽情報をうっかり信じてしまい、深刻な事態が発生する可能性があります。
冒頭で紹介したOpen AI社のアルトマンCEOの懸念が示すように、選挙干渉も国政をコントロールする深刻な悪用のリスクとなります。近年は選挙戦において多くの候補者がSNSを最大限に活用していますが、上記のウクライナのゼレンスキー大統領の偽動画と同様に、生成AIを活用すれば偽の動画や文章を大量にSNSに投稿することができ、世論のコントロールにつながる可能性があります。
製造業の現場では、生成AIを活用することでサプライチェーンにおける情報を一元管理することに加え、倉庫や流通ネットワークを横断したリアルタイムの状況や予測的なインサイト、需要と供給の急激なバランスの変化、今後の天気の見通しといった情報を現場担当者に伝えることで、部門間の横断的なコラボレーションが図られ始めています。このように生成AIを大掛かりに活用するケースでは、ひとたびサイバー攻撃を受けたりシステムが乗っ取られてしまったりすると、業務そのものがダウンしてしまいます。
また、AIはしばしば予期しないデータから学習をしてしまいます。それにより、完全に自律した兵器と化す可能性も否定できません。生成AIによって提供される情報をうまく活用しつつも、鵜呑みにしないことが大切です。
私たちはこれから、どのように生成AIと向き合っていけば良いのでしょうか。対話型生成AIはチャットボットなので、回答の真偽はともかく、ユーザーとの会話を続けることはできます。生成AIの出力内容が間違っていても、その出力内容について質問を繰り返すことで、より正解に近い回答を得られることがあります。しかし、それにはまず、ユーザーが回答の間違いを認識できる必要があります。ただ、決まった回答がない質問については、このアプローチは活用できません。実際に、生成AIを開発している企業は、この欠点を技術的に修正したり、補ったりすることは困難であることを認めていますので、ユーザー側がリスクを認識した上で慎重に活用するほかありません。
このような懸念点を十分理解していても、生成物の確認という「手作業」において認識齟齬が生じてしまったり、単純なうっかりミスを起こしてしまったり、惰性による確認ミスが起きてしまったり、リスクは常に付きまといます。とはいえ、私たちがこれまでの業務で培ってきた「確認作業」をしっかり行うことができさえすれば、生成AIを効果的に活用し、その恩恵を享受することは可能です。AIガバナンス担当者は、社内のAI活用の最前線に立ち、既存業務における活用をサポートするとともに、自社が使っている生成AIが完全なものではないことを繰り返し伝え、根気よく社員の期待値をコントロールし続ける必要があります。
2023年4月末に高崎市で行われたG7デジタル・技術相会合でも、人権などの基本的な価値観に基づいて、人間中心の信頼できるAIを目指すことで合意されました。しかし、規制については国によって温度差がまだあり、今後の大きな課題となるでしょう。厳格な法規制を進める欧州に対して、ガイドラインなどによる柔軟な規律により使用者の自律的なAI活用を促したい日米と、考え方に大きな隔たりがあります。グローバルでビジネスを展開する企業が多い中、このような温度差はAI利活用の妨げになってしまう可能性もあり、国際的なルール作りへの理解をより深める必要があります。
PwCは、今後も積極的な生成AIの活用をサポートするとともに、これまで以上に政府の動向を注視し、国際的なAI活用の促進に貢献します。そして、それに伴うリスクとその対策を、皆さまとともに考えていきます。