AIサービスを取り巻く環境とAIレッドチームの必要性

  • 2024-09-06

はじめに

昨今のAIサービスの急速な普及に伴い、多くの企業はAIサービス特有のリスクに直面しています。このため、攻撃者視点でAIサービスのリスク評価を行う「AI レッドチーム」が注目を集めています。本稿では「AIレッドチーム」の必要性や実施の要諦について、連載形式で解説します。第1弾の今回は、企業におけるAIサービスの活用状況とAIサービス特有のリスクやインシデントを紹介し、「AIレッドチーム」の必要性に迫ります。

企業の取り組みの現状

こうした状況から、多くの企業では「AIガバナンス」の態勢を整備し始めています。しかし、外部のガイドラインなどを参照して構築した一般的な管理態勢の整備に留まるケースも多く、具体的かつ有効な対策を講じられているとはいえない状況です。実際、生成AIの出力に対する基本的な対策の導入が十分に進んでいないことはPwCコンサルティングの調査結果(※2)からも見て取れます。

AIサービスのリスクはビジネスユースケース(AIサービスの用途、性質)やAIサービスにおけるビジネス上の立場(AI開発者、AI提供者、AI利用者)によって顕在化する形が大きく異なります。 ブラックボックス化しやすいAIサービスにおいて、安全にAIサービスを利用する、安全なAIサービスを開発・提供するためには、自社の立場やAIサービスの特徴を踏まえ、「どのような脅威が表面化し得るのか」、「どのようなリスクがあるのか」、「どのような対策を行っていくべきか」を攻撃者の視点で評価し、改善を行うこと(=「AIレッドチーム」による取り組み)が必要不可欠と言えます。
実際に昨今の社会や企業では「AIレッドチーム」の必要性・重要性が認知され注目を集め始めています。この点については次回の記事で、詳細を説明します。

※1 総務省, 2024, 情報通信白書令和6年版, 2024/7/25閲覧,
https://www.soumu.go.jp/johotsusintokei/whitepaper/r06.html

※2 PwCコンサルティング合同会社, 生成AIに関する実態調査2024 春, 2024/7/25閲覧
https://www.pwc.com/jp/ja/knowledge/thoughtleadership/2024/assets/pdf/generative-ai-survey2024.pdf

執筆者

村上 純一

パートナー, PwCコンサルティング合同会社

Email

渕 遼亮

マネージャー, PwCコンサルティング合同会社

Email

金子 泰人

シニアアソシエイト, PwCコンサルティング合同会社

Email

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

本ページに関するお問い合わせ