概要と適用タイムライン・企業に求められる対応

「欧州(EU)AI規制法」の解説

  • 2024-09-09

はじめに

2024年5月21日、生成AIを含む包括的なAIの規制である「欧州(EU)AI規制法」が成立し、8月1日に発効となりました。今後、規制内容に応じて2030年12月31日までに段階的に施行されていきます。

本規制では、リスクベースのアプローチが採用されており、AIをリスクの程度で分類し、その程度に応じた規制が適用されます。また、EU域内に所在していない日本企業であっても、EU域内でAIシステムを上市する等のプロバイダーに該当する場合、本規制の適用を受けます。そして、本規制に違反した場合には、その違反類型に応じて、全世界売上ベースでの制裁金が定められています。なお、生成AIの急激な進化と普及を受け、生成AIに対する規制等が追加されています。

企業は新たな規制を理解し、その施行に向けての対応に今から着手する必要があるといえるでしょう。

そこで、本コラムでは、初めての国際的な包括的AI規制といえる欧州(EU)AI規制法の概要を紹介するとともに、企業への影響と求められる対応について考察します。

本稿における意見に関する記述は、全て筆者の私見であることをあらかじめ申し添えます。

AI規制法の概要

AI規制法の概要を「適用範囲」「リスクベースでのAI分類」「汎用目的型AIモデル」「要求事項と義務」「AI規制法適用のタイムライン」「イノベーション支援」および「制裁」の各項目について概説します。

適用範囲

AI規制法は、EU域内で上市されるAIシステムおよび汎用目的型AIモデルと関連するステークホルダーが対象になります。

具体的には、プロバイダー、デプロイヤー、インポーター等が規制対象の主体として想定されていることから、AIの安全性を確保する等の本法の目的に照らし、AIを含むエコシステム全体を適用範囲としていることが窺われます。

各ステークホルダーの定義は以下の通りです。

  • プロバイダー:AIシステムまたは汎用目的型AIモデルを開発する、開発させて上市する、または自己の名称か商標で運用する自然人、法人、公的機関等
  • デプロイヤー:AIシステムをその権限の下で使用する自然人、法人、公的機関等。ただし、AIシステムが個人的な非職業的活動を目的として使用される場合を除きます。
  • インポーター:第三国で設立された自然人または法人の名前または商標が付いたAIシステムを市場に投入する、EUに所在するまたは設立された自然人または法人
  • ディストリビューター:AIシステムをEU域内で利用できるようにする、プロバイダーまたはインポーター以外の、サプライチェーン内の自然人または法人

なお、上述のとおり、EU域内に所在していない日本企業であっても、EU域内でAIシステムを上市する等のプロバイダーに該当する場合、本規制の適用を受けます。特に、AIシステム自体は提供していなくても、EU域内で利用されるアウトプットの生成過程でAIシステムを利用しているようなケースは適用対象となることに注意が必要です。

AIサプライチェーンがますます複雑化する中で、自社製品とAIとの接点をサプライチェーン全体で把握・管理していくことが求められます。

リスクベースでのAI分類

リスクの程度によりAIを4つに分類し、それに応じて禁止事項、要求事項や義務が定められています。順に解説します。

図表1 リスクベースでのAI分類

1)「許容できないリスク」

基本的人権に対する侵害等の普遍的な価値に反するとされ、活用が禁止されるAIです。

具体的には、潜在意識への操作(治療目的は対象外)や、社会的スコアリング、ネットやTVデータのスクレイピングによる顔認証データベース化などが挙げられています。

これらのユースケースでは、個人の権利・自由が侵害されるおそれがあり、AI適用の対象として禁止されています。

2023年6月の修正法案採択時のユースケースの表現がより具体化されており、「AIに何をさせてはいけないか」という議論が活発に行われている実態が垣間見えます。

2)「ハイリスク」

主な規制対象となるAIであり、a)既存規制下の製品(医療機器、玩具、産業機器など:AnnexⅠで別記)と、b)当法で定めるもの(AnnexⅢで別記)の2タイプがあります。

a)については、既存の規制で第三者による適合性評価が求められている製品そのものや、安全機能としてのAIが該当します。b)については生体認証、重要インフラ管理関連、教育・雇用関連などのユースケースにおけるAIが挙げられており、ユースケースの記述にリスクの観点を見ることができます。

例えば、企業の採用活動関連で「ターゲットを絞る求人広告の掲載、応募のスクリーニングやフィルタリング、面接や試験での候補者評価といった採用選考に用いることを意図されたAI(AnnexⅢの4)」はハイリスクAIに該当します。このことからは、雇用機会は平等であり、AIに制御されてはならないという基本的な考えが読み取れます。

3)「特定の透明性が必要なリスク」

人と自然に相互作用するAIや、感情推定や生体分類を行うAI、人物など現実世界に実在するものに酷似させたコンテンツ(ディープフェイクコンテンツ)を生成するAIが例として挙げられています。これらと上述の「許容できないリスク」「ハイリスク」に該当するものには、後述する透明性の義務が適用されます。

4)「最小リスク」

上記のいずれにも該当しないAIはこの「最小リスク」に位置付けられます。このカテゴリには特に明確な義務はありませんが、後述する行動規範を遵守することが奨励されています。

図表2 EUのAIに関するフレームワーク~対象AIシステム~

汎用目的型AIモデル

汎用目的型AIモデルとは、大規模データを用いてトレーニングされた汎用性を持つAIモデルのことを指します。

以前の法案では、Foundationモデルが定義されていましたが、最新のAI規制法ではより包括的な概念として再定義されました。

典型的な例としては、テキストや音声、動画像などを作ることができる生成AIモデルが挙げられます。汎用AIモデルがAIシステムに統合された結果、AIシステムが汎用的な機能を持つ場合、そのAIシステムは汎用AIモデルとみなされることに注意が必要です。

要求事項と義務

次に、リスク分類ごとのAI規制法上の要求事項と義務について見ていきます。

「ハイリスク」

対象:プロバイダー、デプロイヤー、インポーター、ディストリビューター

ハイリスクのAIシステムには、「リスク管理システム」「データガバナンス」「技術文書、ログ管理」「透明性」「人による監視」および「サイバーセキュリティ」などの観点で定められた要求事項の遵守が求められています。また、ハイリスクに該当するAIシステムは、上市前にEU管理下のデータベースに登録しなければなりません。

これらはAIシステム自体への要求事項ですが、プロバイダーには各要求事項の遵守を担保すべく、品質管理システムの整備が義務付けられています。医療機器など別の規制下の製品は既存の枠組みに基づいた評価、そうでない場合は適合性評価を行う必要があります。

この適合性評価は特定の条件下においてセルフアセスメントが認められていますが、法的要件等が求められる場合は、第三者評価が必要となります。

「特定の透明性が必要なリスク」

対象:プロバイダー、デプロイヤー

ハイリスク以外のAIについては、透明性に係る義務が次のように定められています。

  • 人がAIと相互作用していることを知らせる方法で設計・開発すること
  • AIシステムにより生成された合成音声、画像、動画、またはテキストコンテンツは、機械可読な形式で、人工的に生成または操作されたものとして検出可能にすること
  • 感情認識または生体分類AIシステムの利用時には、その動作について適用される相手に通知すること
  • いわゆるディープフェイクコンテンツには人工生成であることを明確かつ視覚的に開示すること

また、生成または操作されたコンテンツの検出とラベル付けについて、EUレベルでの実践規範の策定を欧州委員会のAIオフィスが奨励および促進していきます。企業が自らのAI開発や利用に関する姿勢を対外的に示していく動きはますます広がっていくと考えられます。

図表3 EUのAIに関するフレームワーク~要求事項~

「汎用目的型AIモデル」

対象:プロバイダー

汎用目的型AIモデルは他のAIシステムに組み込まれて使用される可能性が高いため、汎用目的型AIモデルを使用する事業者は、組み込む汎用目的型AIモデルの機能を十分に理解する必要があります。そのため、汎用目的型AIモデルのプロバイダーは、モデルに関する仕様書等を最新化することや、適切な情報提供の実施など透明性を高めることが義務付けられます。

さらに、EUにおける著作権法の遵守や、そのためのトレーニングデータに使用されるコンテンツの詳細の公表なども求められます。

また、汎用目的型AIモデルの中でもモデルのトレーニングに使用される計算量(FLOPS等)やエンドユーザー数が一定の閾値を超えた場合には、その影響力の大きさからSystemic risk*があると判断され、次のようなより厳しい要件を充足することが求められます。

  • Systemic riskの評価
  • 重大インシデント発生時の当局への報告義務
  • サイバーセキュリティに関する対策の確保

Systemic riskとは、AIシステムが社会、経済、または特定のセクター全体に広範な影響を及ぼし、重大な混乱や被害を引き起こす可能性があるリスクを指します。

汎用目的型AIモデルがSystemic riskの要件を満たす場合には、汎用目的型AIモデルのプロバイダーは2週間以内に欧州委員会に届け出ることが必要です。届出がない汎用目的型AIモデルがSystemic riskの要件を満たしている場合には、欧州委員会が指定することができます。

AI規制法適用のタイムライン

AI規制法は段階的に適用され、発効日から適用日までには、章・節・条項によって6〜24カ月の猶予があります。さらに、AIモデル・システムの種類や市場投入・サービス提供開始時期によっても、適用が猶予される場合があります。AIシステムをEU市場に投入・提供する事業者に関係する主なタイムラインは、次の通りです。

最初に適用されるのは、第1章の総則と第2章の禁止されるAIに関する条項です。発効から6カ月後となる2025年2月2日から適用されます。

それまでに、AIシステムをEU市場に投入・提供する事業者を始めとする関係者は、AI規制法の目的や適用範囲、使用される用語の定義等を確認しておくことが望まれます。例えば、総則の中には従業員およびAIシステムの運用・利用に関与する者のAIリテラシーについても言及されており、十分なレベルのAIリテラシーを最善の限度において確保するための措置を講じることも求められています。

次に、発効から12カ月後となる2025年8月2日には、汎用目的型AIモデルの章(第5章)についても適用が開始されます。また、汎用目的型AIモデルのプロバイダーに対する制裁金の条項(第101条)を除いた罰則(第12章)も適用されます。そのため、この時点から、第2章の禁止されるAIに関する条項に対する違反等により、制裁金が科せられる可能性があります。

そして、発効から24カ月後の2026年8月2日には、一部のハイリスクAIの分類ルール(第6条1項)を除き、全ての章・節・条項が適用されます。ハイリスクAI(第3章の一部)や特定のAIシステムのプロバイダーおよびデプロイヤーに対する透明性義務(第4章)に関する章が含まれます。

しかし、上記の適用日の対象外となるAIモデル・システムも存在します。

2025年8月2日までに上市された汎用目的型AIモデルのプロバイダーは、2027年8月2日までに、定められた義務を遵守するために必要な措置を講じればよいとされています。

また、2026年8月2日までに上市または使用開始され、かつ、その日以降に設計が大幅に変更される、公的機関による使用を意図した高リスクAIシステムのプロバイダーおよびデプロイヤーは、2030年8月2日までに、AI規制法の要件に準拠するために必要な措置を講じることが求められています。

さらに、Annex Xに記載されている法律行為によって確立された大規模ITシステムのコンポーネントであるAIシステムで、2027年8月2日までに市場に投入されたもの、または供用開始されたものについては、2030年12月31日までAI規制法への準拠が猶予される可能性があります。

こうした段階的な適用を促進する文書として、2025年5月2日までには汎用目的型AIモデルのプロバイダーに対する行動規範が、2026年2月2日までには、AIシステムのユースケース実践例の包括的なリストとともに、要件と義務を含むAI規制法の実践的な実装について規定するガイドラインが、欧州委員会から提供される見込みです。

図表4 AI法適用のタイムライン

イノベーション支援

AI規制法には、AIの開発・利用を促進するイノベーション支援の観点も含まれている点が特徴です。具体的には次のようなサンドボックス環境の活用が想定されています。

サンドボックス環境とは、普段利用している環境とは別の隔離、保護された仮想環境です。このサンドボックス環境で、規制監督下のもと、現実世界と同じ条件でAIシステムを開発、トレーニング、検証、テストする機会をAIシステムプロバイダーに提供することが考えられています。

プログラム開発の世界ではこれまであまり例はないかもしれませんが、医薬品開発における治験のように他の規制産業では上市前の公的な検証が行われており、AIにおいてもこのようなビジネススキームを念頭においた戦略の立案が必要になるかもしれません。

なお、公益性が高い公共の安全、公衆衛生、環境保護などの領域では、一定の条件のもとで、他目的にて収集された個人データの利用も検討されています。また、スタートアップや小規模プロバイダーに対するサンドボックス環境への優先的アクセスの確保や、これらの小規模プレイヤーの具体的ニーズを重視する方向性も示されています。

制裁

各違反への制裁金は次のように定められています(第99、101条)。

  1. 受容できないAIに関する禁止事項(第5条)の違反:3,500万ユーロまたは全世界売上高の7%の高い方が上限
  2. ハイリスクAIに関する要求事項(第16、22、23、24、26条)および透明性義務(第50条)、汎用目的型AIのプロバイダーによる関連規定(第91、92、93条等)の違反:1,500万ユーロまたは全世界売上高の3%の高い方が上限
  3. 認定機関または当局への虚偽、不完全または誤解を招く情報の提供:750万ユーロまたは全世界売上高の1%の高い方が上限

2023年6月の修正法案採択時の制裁金額からは引き下げが行われている一方で、新たに汎用目的型AIのプロバイダーに対する制裁金が規定されました。

執筆者

平岩 久人

パートナー, PwC Japan有限責任監査法人

Email

鮫島 洋一

シニアマネージャー, PwC Japan有限責任監査法人

Email

三原 亮介

マネージャー, PwC Japan有限責任監査法人

Email

浅尾 圭人

シニアアソシエイト, PwC Japan有限責任監査法人

Email

野地 舞花

シニアアソシエイト, PwC Japan有限責任監査法人

Email

ウェスティン デービッド

シニアアソシエイト, PwC Japan有限責任監査法人

Email

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

本ページに関するご質問は下記にて承ります