{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
インサイトコラム「AIサービスを取り巻く環境とAIレッドチームの必要性」では、AIサービス特有のリスクから、「AIレッドチーム」の必要性について解説しました。本稿では、世界各国で規制が強化されているという側面から「AIレッドチーム」の果たす役割と、その必要性に迫ります。また、世界の先進企業においては、実際に「AIレッドチーム」を組成する動きも出始めてきており、この点についても紹介します。
AIサービスに関するインシデントが多発している状況に鑑み、国際的にAIの信頼に関する議論が活発化し、各地域・国・団体において法令・ガイドラインの整備が進められています。欧州(EU)では「欧州(EU)AI規制法」が成立し(今後、段階的に適用予定)、規制強化が進んでいます(※1)。世界各国でも今後AIに関する法令・ガイドラインの整備による規制強化が加速していくことが予想されます。
すでに発行されている法令・ガイドラインを見てみると、「AIリスクを特定する」という趣旨の要件が推奨事項として言及されているケースが多くあることが分かります。そして、次に示すとおり、その具体的な取り組みとして「AIレッドチーム」が例示・紹介されることが増えてきました。このように、世界の規制強化の側面からも、「AIレッドチーム」の重要性は高まってきていると考えられます。
「人工知能の安全・安心・信頼できる開発と利用に関する大統領令」に関する詳細な解説は、こちらのインサイトをご参照ください。
実際に、テクノロジー企業を中心にAIレッドチームを組成する企業も出始めてきています。
米国のテクノロジー企業を中心に、法律・経済など、多様なドメインの専門家を外部から募集してAIレッドチームを立ち上げる企業、SMEsからAIレッドチームを組成し安全保障の専門家へのインタビューを通してリスク領域を特定する企業などが見られます。
このように、「AIレッドチーム」においては内部リソースのみならず外部リソースも活用されています。これは、AIリスクの特定に求められる専門性や手法が従来のITサービスと異なるため、「AIレッドチーム」を既存の内部リソースのみで組成することが現実的ではないことが要因と考えられます。
AIサービスのリスクは「技術的リスク」にとどまらず「倫理リスク」「法令リスク」と広範にわたります。また、AIサービスは確率論的プロセスに基づいて動作するため、AIに精通するエンジニアによるテストを通してリスクを特定することが望まれます。
AIリスクの増大、また、今後の世界の規制強化に伴い、「AIレッドチーム」はより一般的なものとなり、上記のような先進企業以外においても実施する企業が増加することが予想されます。このような企業においては、AIリスクを効率的・効果的に特定するために、外部リソースを積極的に活用し「AIレッドチーム」を実施することを検討すべきでしょう。
次回のインサイトではAIレッドチームの具体的な取り組みについて解説します。
※1:PwC, 2024, PwC Japanグループ、欧州(EU)AI規制法の対応支援を開始, 2024/8/8閲覧,
https://www.pwc.com/jp/ja/press-room/2024/eu-artificial-intelligence-act.html
※2:ホワイトハウス, 2023, FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 2024/8/6閲覧,
https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
※3:主要国首脳会議(G7サミット), 2023, 全AI関係者向けの広島プロセス国際指針, 2024/8/6閲覧,
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document04.pdf
※4:主要国首脳会議(G7サミット), 2023, 高度な AI システムを開発する組織向けの広島プロセス国際行動規範, 2024/8/6閲覧,
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document05.pdf
※5:2023, Guidelines for secure AI system development, 2024/8/6閲覧,
https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development
※6:総務省・経済産業省, 2024, AI事業者ガイドライン(第1.0版), 2024/8/6閲覧,
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20240419_1.pdf
※7:米国立標準技術研究所(NIST), 2024, The Draft NIST Assessing Risks and Impacts of AI (ARIA) Pilot Evaluation Plan, 2024/8/6閲覧,
https://ai-challenges.nist.gov/aria/docs/evaluation_plan.pdf
※8:米国立標準技術研究所(NIST), 2024, AI RISK MANAGEMENT FRAMEWORK, 2024/8/6閲覧,
https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf