{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2024年5月21日、生成AIを含む包括的なAIの規制である「欧州(EU)AI規制法」が成立し、8月1日に発効となりました。今後、規制内容に応じて2030年12月31日までに段階的に施行されていきます。
本規制では、リスクベースのアプローチが採用されており、AIをリスクの程度で分類し、その程度に応じた規制が適用されます。また、EU域内に所在していない日本企業であっても、EU域内でAIシステムを上市する等のプロバイダーに該当する場合、本規制の適用を受けます。そして、本規制に違反した場合には、その違反類型に応じて、全世界売上ベースでの制裁金が定められています。なお、生成AIの急激な進化と普及を受け、生成AIに対する規制等が追加されています。
企業は新たな規制を理解し、その施行に向けての対応に今から着手する必要があるといえるでしょう。
そこで、本コラムでは、初めての国際的な包括的AI規制といえる欧州(EU)AI規制法の概要を紹介するとともに、企業への影響と求められる対応について考察します。
本稿における意見に関する記述は、全て筆者の私見であることをあらかじめ申し添えます。
AI規制法の概要を「適用範囲」「リスクベースでのAI分類」「汎用目的型AIモデル」「要求事項と義務」「AI規制法適用のタイムライン」「イノベーション支援」および「制裁」の各項目について概説します。
AI規制法は、EU域内で上市されるAIシステムおよび汎用目的型AIモデルと関連するステークホルダーが対象になります。
具体的には、プロバイダー、デプロイヤー、インポーター等が規制対象の主体として想定されていることから、AIの安全性を確保する等の本法の目的に照らし、AIを含むエコシステム全体を適用範囲としていることが窺われます。
各ステークホルダーの定義は以下の通りです。
なお、上述のとおり、EU域内に所在していない日本企業であっても、EU域内でAIシステムを上市する等のプロバイダーに該当する場合、本規制の適用を受けます。特に、AIシステム自体は提供していなくても、EU域内で利用されるアウトプットの生成過程でAIシステムを利用しているようなケースは適用対象となることに注意が必要です。
AIサプライチェーンがますます複雑化する中で、自社製品とAIとの接点をサプライチェーン全体で把握・管理していくことが求められます。
リスクの程度によりAIを4つに分類し、それに応じて禁止事項、要求事項や義務が定められています。順に解説します。
基本的人権に対する侵害等の普遍的な価値に反するとされ、活用が禁止されるAIです。
具体的には、潜在意識への操作(治療目的は対象外)や、社会的スコアリング、ネットやTVデータのスクレイピングによる顔認証データベース化などが挙げられています。
これらのユースケースでは、個人の権利・自由が侵害されるおそれがあり、AI適用の対象として禁止されています。
2023年6月の修正法案採択時のユースケースの表現がより具体化されており、「AIに何をさせてはいけないか」という議論が活発に行われている実態が垣間見えます。
主な規制対象となるAIであり、a)既存規制下の製品(医療機器、玩具、産業機器など:AnnexⅠで別記)と、b)当法で定めるもの(AnnexⅢで別記)の2タイプがあります。
a)については、既存の規制で第三者による適合性評価が求められている製品そのものや、安全機能としてのAIが該当します。b)については生体認証、重要インフラ管理関連、教育・雇用関連などのユースケースにおけるAIが挙げられており、ユースケースの記述にリスクの観点を見ることができます。
例えば、企業の採用活動関連で「ターゲットを絞る求人広告の掲載、応募のスクリーニングやフィルタリング、面接や試験での候補者評価といった採用選考に用いることを意図されたAI(AnnexⅢの4)」はハイリスクAIに該当します。このことからは、雇用機会は平等であり、AIに制御されてはならないという基本的な考えが読み取れます。
人と自然に相互作用するAIや、感情推定や生体分類を行うAI、人物など現実世界に実在するものに酷似させたコンテンツ(ディープフェイクコンテンツ)を生成するAIが例として挙げられています。これらと上述の「許容できないリスク」「ハイリスク」に該当するものには、後述する透明性の義務が適用されます。
上記のいずれにも該当しないAIはこの「最小リスク」に位置付けられます。このカテゴリには特に明確な義務はありませんが、後述する行動規範を遵守することが奨励されています。
汎用目的型AIモデルとは、大規模データを用いてトレーニングされた汎用性を持つAIモデルのことを指します。
以前の法案では、Foundationモデルが定義されていましたが、最新のAI規制法ではより包括的な概念として再定義されました。
典型的な例としては、テキストや音声、動画像などを作ることができる生成AIモデルが挙げられます。汎用AIモデルがAIシステムに統合された結果、AIシステムが汎用的な機能を持つ場合、そのAIシステムは汎用AIモデルとみなされることに注意が必要です。
次に、リスク分類ごとのAI規制法上の要求事項と義務について見ていきます。
対象:プロバイダー、デプロイヤー、インポーター、ディストリビューター
ハイリスクのAIシステムには、「リスク管理システム」「データガバナンス」「技術文書、ログ管理」「透明性」「人による監視」および「サイバーセキュリティ」などの観点で定められた要求事項の遵守が求められています。また、ハイリスクに該当するAIシステムは、上市前にEU管理下のデータベースに登録しなければなりません。
これらはAIシステム自体への要求事項ですが、プロバイダーには各要求事項の遵守を担保すべく、品質管理システムの整備が義務付けられています。医療機器など別の規制下の製品は既存の枠組みに基づいた評価、そうでない場合は適合性評価を行う必要があります。
この適合性評価は特定の条件下においてセルフアセスメントが認められていますが、法的要件等が求められる場合は、第三者評価が必要となります。
対象:プロバイダー、デプロイヤー
ハイリスク以外のAIについては、透明性に係る義務が次のように定められています。
また、生成または操作されたコンテンツの検出とラベル付けについて、EUレベルでの実践規範の策定を欧州委員会のAIオフィスが奨励および促進していきます。企業が自らのAI開発や利用に関する姿勢を対外的に示していく動きはますます広がっていくと考えられます。
対象:プロバイダー
汎用目的型AIモデルは他のAIシステムに組み込まれて使用される可能性が高いため、汎用目的型AIモデルを使用する事業者は、組み込む汎用目的型AIモデルの機能を十分に理解する必要があります。そのため、汎用目的型AIモデルのプロバイダーは、モデルに関する仕様書等を最新化することや、適切な情報提供の実施など透明性を高めることが義務付けられます。
さらに、EUにおける著作権法の遵守や、そのためのトレーニングデータに使用されるコンテンツの詳細の公表なども求められます。
また、汎用目的型AIモデルの中でもモデルのトレーニングに使用される計算量(FLOPS等)やエンドユーザー数が一定の閾値を超えた場合には、その影響力の大きさからSystemic risk*があると判断され、次のようなより厳しい要件を充足することが求められます。
* Systemic riskとは、AIシステムが社会、経済、または特定のセクター全体に広範な影響を及ぼし、重大な混乱や被害を引き起こす可能性があるリスクを指します。
汎用目的型AIモデルがSystemic riskの要件を満たす場合には、汎用目的型AIモデルのプロバイダーは2週間以内に欧州委員会に届け出ることが必要です。届出がない汎用目的型AIモデルがSystemic riskの要件を満たしている場合には、欧州委員会が指定することができます。
AI規制法は段階的に適用され、発効日から適用日までには、章・節・条項によって6〜24カ月の猶予があります。さらに、AIモデル・システムの種類や市場投入・サービス提供開始時期によっても、適用が猶予される場合があります。AIシステムをEU市場に投入・提供する事業者に関係する主なタイムラインは、次の通りです。
最初に適用されるのは、第1章の総則と第2章の禁止されるAIに関する条項です。発効から6カ月後となる2025年2月2日から適用されます。
それまでに、AIシステムをEU市場に投入・提供する事業者を始めとする関係者は、AI規制法の目的や適用範囲、使用される用語の定義等を確認しておくことが望まれます。例えば、総則の中には従業員およびAIシステムの運用・利用に関与する者のAIリテラシーについても言及されており、十分なレベルのAIリテラシーを最善の限度において確保するための措置を講じることも求められています。
次に、発効から12カ月後となる2025年8月2日には、汎用目的型AIモデルの章(第5章)についても適用が開始されます。また、汎用目的型AIモデルのプロバイダーに対する制裁金の条項(第101条)を除いた罰則(第12章)も適用されます。そのため、この時点から、第2章の禁止されるAIに関する条項に対する違反等により、制裁金が科せられる可能性があります。
そして、発効から24カ月後の2026年8月2日には、一部のハイリスクAIの分類ルール(第6条1項)を除き、全ての章・節・条項が適用されます。ハイリスクAI(第3章の一部)や特定のAIシステムのプロバイダーおよびデプロイヤーに対する透明性義務(第4章)に関する章が含まれます。
しかし、上記の適用日の対象外となるAIモデル・システムも存在します。
2025年8月2日までに上市された汎用目的型AIモデルのプロバイダーは、2027年8月2日までに、定められた義務を遵守するために必要な措置を講じればよいとされています。
また、2026年8月2日までに上市または使用開始され、かつ、その日以降に設計が大幅に変更される、公的機関による使用を意図した高リスクAIシステムのプロバイダーおよびデプロイヤーは、2030年8月2日までに、AI規制法の要件に準拠するために必要な措置を講じることが求められています。
さらに、Annex Xに記載されている法律行為によって確立された大規模ITシステムのコンポーネントであるAIシステムで、2027年8月2日までに市場に投入されたもの、または供用開始されたものについては、2030年12月31日までAI規制法への準拠が猶予される可能性があります。
こうした段階的な適用を促進する文書として、2025年5月2日までには汎用目的型AIモデルのプロバイダーに対する行動規範が、2026年2月2日までには、AIシステムのユースケース実践例の包括的なリストとともに、要件と義務を含むAI規制法の実践的な実装について規定するガイドラインが、欧州委員会から提供される見込みです。
AI規制法には、AIの開発・利用を促進するイノベーション支援の観点も含まれている点が特徴です。具体的には次のようなサンドボックス環境の活用が想定されています。
サンドボックス環境とは、普段利用している環境とは別の隔離、保護された仮想環境です。このサンドボックス環境で、規制監督下のもと、現実世界と同じ条件でAIシステムを開発、トレーニング、検証、テストする機会をAIシステムプロバイダーに提供することが考えられています。
プログラム開発の世界ではこれまであまり例はないかもしれませんが、医薬品開発における治験のように他の規制産業では上市前の公的な検証が行われており、AIにおいてもこのようなビジネススキームを念頭においた戦略の立案が必要になるかもしれません。
なお、公益性が高い公共の安全、公衆衛生、環境保護などの領域では、一定の条件のもとで、他目的にて収集された個人データの利用も検討されています。また、スタートアップや小規模プロバイダーに対するサンドボックス環境への優先的アクセスの確保や、これらの小規模プレイヤーの具体的ニーズを重視する方向性も示されています。
各違反への制裁金は次のように定められています(第99、101条)。
2023年6月の修正法案採択時の制裁金額からは引き下げが行われている一方で、新たに汎用目的型AIのプロバイダーに対する制裁金が規定されました。
生成AIをはじめ、AI技術の進歩は目覚ましく、私たちの生活やビジネスに欠くことのできない存在となっています。一方で、いわゆるディープフェイクによる社会の混乱や誤った学習データ、モデルによる差別の助長などの問題も起きています。このAI規制法は、基本的人権や民主主義などの普遍的価値を守りながら、技術革新を後押ししていくための包括的な枠組みであると捉えることができます。
AI規制法の成立により、EU域内でAIに関連するビジネスを展開する日本企業はAI規制法の要件への対応が必要になる場合があります。また、EU域内から利用できるAIサービスを運用している等の場合、AI規制法の要件への対応が求められます。
AI規制法では、リスクの程度ごとにさまざまな要件・義務があり、今後、段階的に適用されます。AI規制法の対象になるにもかかわらず適切な対応が実施されていない場合、高額な制裁金を科されるおそれがあります。日本企業においても、AI規制法の内容をよく理解し、施行タイミングや自社サービスに適用される要件・義務の把握やセルフアセスメントを実施することが望まれます。
また、AI規制法では技術的要求事項として、データガバナンス、プライバシーガバナンス、サイバーセキュリティが挙げられています。これを機に自社の各ガバナンスを改めて確認し、部分最適となりがちな各ガバナンスを統合、高度化することも求められます。
AI規制法への対応を単なる規制対応にとどめず、規制が見据えるこれからの社会において求められるガバナンスを事業活動に組み込むことが、競争力の向上や差別化の要素の1つになると考えられます。