
AIサービスのリスクを特定する「AIレッドチーム」
「AIレッドチーム」とは、AIサービスの脆弱性とそれに伴うビジネスリスクを特定するためにエンジニアがテスト、疑似攻撃、講じるべき対策の定義を行うチームです。「AIレッドチーム」が具体的にどのように機能するかを解説します。
インサイトコラム「AIサービスを取り巻く環境とAIレッドチームの必要性」では、AIサービス特有のリスクから、「AIレッドチーム」の必要性について解説しました。本稿では、世界各国で規制が強化されているという側面から「AIレッドチーム」の果たす役割と、その必要性に迫ります。また、世界の先進企業においては、実際に「AIレッドチーム」を組成する動きも出始めてきており、この点についても紹介します。
AIサービスに関するインシデントが多発している状況に鑑み、国際的にAIの信頼に関する議論が活発化し、各地域・国・団体において法令・ガイドラインの整備が進められています。欧州(EU)では「欧州(EU)AI規制法」が成立し(今後、段階的に適用予定)、規制強化が進んでいます(※1)。世界各国でも今後AIに関する法令・ガイドラインの整備による規制強化が加速していくことが予想されます。
すでに発行されている法令・ガイドラインを見てみると、「AIリスクを特定する」という趣旨の要件が推奨事項として言及されているケースが多くあることが分かります。そして、次に示すとおり、その具体的な取り組みとして「AIレッドチーム」が例示・紹介されることが増えてきました。このように、世界の規制強化の側面からも、「AIレッドチーム」の重要性は高まってきていると考えられます。
「人工知能の安全・安心・信頼できる開発と利用に関する大統領令」に関する詳細な解説は、こちらのインサイトをご参照ください。
実際に、テクノロジー企業を中心にAIレッドチームを組成する企業も出始めてきています。
米国のテクノロジー企業を中心に、法律・経済など、多様なドメインの専門家を外部から募集してAIレッドチームを立ち上げる企業、SMEsからAIレッドチームを組成し安全保障の専門家へのインタビューを通してリスク領域を特定する企業などが見られます。
このように、「AIレッドチーム」においては内部リソースのみならず外部リソースも活用されています。これは、AIリスクの特定に求められる専門性や手法が従来のITサービスと異なるため、「AIレッドチーム」を既存の内部リソースのみで組成することが現実的ではないことが要因と考えられます。
AIサービスのリスクは「技術的リスク」にとどまらず「倫理リスク」「法令リスク」と広範にわたります。また、AIサービスは確率論的プロセスに基づいて動作するため、AIに精通するエンジニアによるテストを通してリスクを特定することが望まれます。
AIリスクの増大、また、今後の世界の規制強化に伴い、「AIレッドチーム」はより一般的なものとなり、上記のような先進企業以外においても実施する企業が増加することが予想されます。このような企業においては、AIリスクを効率的・効果的に特定するために、外部リソースを積極的に活用し「AIレッドチーム」を実施することを検討すべきでしょう。
次回のインサイトではAIレッドチームの具体的な取り組みについて解説します。
※1:PwC, 2024, PwC Japanグループ、欧州(EU)AI規制法の対応支援を開始, 2024/8/8閲覧,
https://www.pwc.com/jp/ja/press-room/2024/eu-artificial-intelligence-act.html
※2:ホワイトハウス, 2023, FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 2024/8/6閲覧,
https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
※3:主要国首脳会議(G7サミット), 2023, 全AI関係者向けの広島プロセス国際指針, 2024/8/6閲覧,
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document04.pdf
※4:主要国首脳会議(G7サミット), 2023, 高度な AI システムを開発する組織向けの広島プロセス国際行動規範, 2024/8/6閲覧,
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document05.pdf
※5:2023, Guidelines for secure AI system development, 2024/8/6閲覧,
https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development
※6:総務省・経済産業省, 2024, AI事業者ガイドライン(第1.0版), 2024/8/6閲覧,
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20240419_1.pdf
※7:米国立標準技術研究所(NIST), 2024, The Draft NIST Assessing Risks and Impacts of AI (ARIA) Pilot Evaluation Plan, 2024/8/6閲覧,
https://ai-challenges.nist.gov/aria/docs/evaluation_plan.pdf
※8:米国立標準技術研究所(NIST), 2024, AI RISK MANAGEMENT FRAMEWORK, 2024/8/6閲覧,
https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
「AIレッドチーム」とは、AIサービスの脆弱性とそれに伴うビジネスリスクを特定するためにエンジニアがテスト、疑似攻撃、講じるべき対策の定義を行うチームです。「AIレッドチーム」が具体的にどのように機能するかを解説します。
世界各国で規制が強化されているという側面から「AIレッドチーム」の果たす役割と、その必要性に迫ります。また、実際に世界の先進企業において「AIレッドチーム」を組成する動きが出始めていることについても紹介します。
多くの企業が直面しているAIサービス特有のリスクに対し、攻撃者視点でリスク評価を行う「AI レッドチーム」が注目を集めています。本稿ではAIサービスの活用状況と特有のリスクやインシデントを紹介し、「AIレッドチーム」の必要性に迫ります。
各国サイバーセキュリティ法令・政策動向シリーズの第5回目として、ブラジルのデジタル戦略と組織体制、セキュリティにかかわる政策や法令とその動向などについて最新情報を解説します。
プライバシーガバナンスは、プライバシー問題に関するリスクを適切に管理し、消費者やステークホルダーに対して責任を果たすことを指します。この見直しは、社会からの信頼を得るとともに企業価値の向上に寄与します。企業のプライバシーガバナンスへの取り組み状況として2社の事例をご紹介します。
昨今の製品セキュリティを取り巻く規制や制度への対応に伴い、企業では脆弱性開示ポリシーの整備が進んでいます。脆弱性を迅速かつ効果的に修正し運用するための、脆弱性を発見した報告者と企業との協力関係の構築と、報告者に対して企業が支払う報奨金制度の活用について解説します。
2025年3月末より、IoTセキュリティ適合性評価及びラベリング制度(JC-STAR)の運用が開始されました。行政機関や地方公共団体、民間企業に向けてさまざまな政府機関が発行するガイダンスについて紹介、解説します。