{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2022-08-29
社会のあらゆる場面でAIが活用され始めた昨今、AIリスクを起因とするインシデント事例が世界的に増加しています。これに対応するため、国際機関や各国政府はAIリスクに対応するための原理原則や中間的ルールの整備を進めています。
産業界におけるAIの活用は大きく進展しており、消費拡大と生産性向上の2つの側面でグローバル経済に大きく貢献する見込みとなっています。2030年までのAIの世界的なGDPへの影響は、15.7兆ドルになると予想されており、その内訳は消費拡大によるものが約60%、 生産性向上によるものが約40%程となる見込みです1。特に米国・中国におけるAI活用によるGDPへのインパクトが大きく、日本においても、2030年までに実質GDPの約18.2%(132兆円、2016年比)の押し上げ効果が期待されています2。
一方、AIの社会実装が進む中で、AIリスクを起因とするインシデント事例が増加しています。近年、発生しているAIインシデントは、大きく6つに分類することができ、(1)人間中心(倫理)に関するリスク、(2)プライバシーに関するリスク、(3)レピュテーションリスク、(4)セキュリティリスク、(5)公平性のリスク、(6)説明責任/透明性に関するリスクがあります。これらのリスクがインシデントに発展した場合、企業のレピュテーションを低下させ、最悪の場合、サービス停止に追い込まれる可能性もあります。そのため、これからのデータサイエンティストは分析スキルだけではなく、倫理、透明性、説明性などのAIガバナンスの知見を身に着けることが必要です。特にジェンダーや人種については、実世界にこれまで存在していたバイアスがAIによって強化されないよう、細心の注意を払う必要があります。
例えば米国では、警察が容疑者特定のために利用している顔認識AIにおいて、特定の人種・性別に対して誤認率が高いことが発覚し、物議を醸しました。このインシデントは、①利用許諾が明確に取れていない学習データを利用したこと(プライバシーに関するリスク)、②学習データの偏り(黒人女性の学習データがそれ以外の人種よりも少ないなど)によりAIの出力にバイアスが生じたことでユーザーまたは第三者に不利益が発生したこと(人間中心(倫理)に関するリスク、公平性のリスク)、③インシデント発生後も差別疑惑に対して十分に説明を行わなかったこと(レピュテーションリスク、説明責任/透明性に関するリスク)が問題となっており、それぞれのリスクへの対応が不十分であったと言えます。またその他にもECサービスにおいて、不正にレビュー操作された書籍を推薦してしまうインシデントが発生しました。この事例は、不正なレビュー等により信憑性が低いまたは誤った情報が掲載されてしまうことによるサービス低下(レピュテーションリスク)、また信頼性が低い商品・サービスをレコメンドしてしまうことによるユーザーへの不利益発生(セキュリティリスク)が問題となっています。
本記事では、上記のリスクに対応するAIガバナンスの取り組みを説明するため、国際社会、米国、EUのAIリスクコントロールに関する規制の枠組み、また日本におけるAIガバナンスの検討・議論状況を紹介します。そして最後に企業が対処すべきリスクについて、6つのリスクのうち代表的な「公平性の確保」「プライバシーの確保」について事例をもとに説明します。
AIリスクのコントロールを実現するため、国際機関や各国政府では、リスク管理に関するさまざまな枠組みの検討が進んでいます。AIリスクの規制の枠組みは、①AIの利用・開発に関するハイレベルな原則を定める「原理原則」、②各国のガイドライン、または法的拘束力を持つ規制である「中間的ルール」、③各企業の自主的な取り組みである「企業ルール」の3つから構成されています(図1)。イノベーションを阻害せずにAIのリスクコントロールを実現するため、国際機関、各国政府においてAIリスクの規制の枠組みの検討が進んでいます。
国際機関の動向に関して、特筆すべき動きとして「Global Partnership on AI」(以下、GPAI)の設立が挙げられます。2020年6月、責任あるAIの開発と利用に取り組む国際的なイニシアチブとして、政府・国際機関・産業界・有識者等からなる官民多国間組織であるGPAIが設立されました。GPAIでは「責任あるAI」「データガバナンス」「仕事の未来」「イノベーションと商業化」「AIとパンデミック対応」の5つの作業部会が設置されており、今後政府や各産業界が取り組むべき領域の特定と実施すべき推奨事項の提案が行われています。これらの取り組みが具体化される中で、AIの責任ある利用・開発に関するガバナンスの在り方が、国際的にもより詳細化されていくことが想定されます。
米国においても、AIの開発・利用に関するガイドラインの制定が進んでいます。2019年2月に公表された“The national artificial intelligence research and development strategic plan: 2019 update”では、AIの公平性、透明性、説明責任について、法律、倫理、哲学等の多様な観点からの研究を進めていく必要性が述べられています。また中間的ルールの制定も一部地域で進んでおり、サンフランシスコ市では、警察による顔認証技術の利用を禁止する条例を定めています。他の地域においても、今後さらに中間的ルールの整備が進むと考えられます。
EUでは、2019年4月、AI技術者が信頼性を担保するための7つの主要原則を“Ethics guidelines for trustworthy AI”で定義しました。2020年2月には、より具体的なアプローチを記載した“White Paper on Artificial Intelligence - a European approach to excellence and trust”を発表しています。これらの原理原則を基に、2021年4月、中間的ルールとして“Proposal for a regulation laying down harmonised rules on artificial intelligence”を発表しています。このAI規制枠組み規則案では、AIのリスク別に規制が設定されており、違反した場合には罰金を科すことを検討しています。これらの規制強化の流れについては、今後より具体的な法整備が進んでいくと考えられます。
AIのリスクコントロールについては、国際機関・各国がそれぞれ検討を進めており、今後はいかに規制を実効的なものにしていくか検討が進んでいくことが予想されます。そのため、企業がAIシステムの社会実装を進めていくうえでは、規制に関する国際動向を十分に注視する必要があります。
日本でのAIガバナンスの検討は、2019年3月に内閣府が公表した「人間中心のAI社会原則」を基に、企業のイノベーションを阻害しないソフトローを中心に、中間的ルールの検討・策定が進んでいます。今後の課題としては、非拘束的なガイドラインを遵守するようなインセンティブの設計、政府へのAI利用に対するガイダンスの導入、他国のガバナンスとの調和、政策と標準の連携が指摘されていますが、これらの課題についても今後より具体的に議論・検討が進んでいくと考えられます。
「人間中心のAI社会原則」では、AI の適切で積極的な社会実装を推進するため、社会(特に、国などの立法・行政機関)が留意すべき7つの社会的枠組みに関する原則が定義されています。7つの原則は(1)人間中心の原則、(2)教育・リテラシーの原則、(3)プライバシー確保の原則、(4)セキュリティ確保の原則、(5)公正競争確保の原則、(6)公平性、説明責任および透明性の原則、(7)イノベーションの原則から構成されており、原則をもとに中間的ルールの整備が進んでいます。
中間的ルールについて、2021年7月、経済産業省は「我が国の AI ガバナンスの在り方 ver. 1.1」を公表しました。この報告書では、これまでの国内外の動向と先行研究を踏まえて、望ましいAIガバナンスとして4つの特徴が挙げられています。1つ目が「法的拘束力のない企業ガバナンス・ガイドライン」です。法的拘束力があるルールは企業のAI利活用を阻害する可能性があるため、リスクへの柔軟な対応を可能にする一定のガイダンスを提供することが重要となります。2つ目は、国際標準化への提案です。ISO/IEC JTC1 SC42にてAIの国際標準化が議論されていますが、本報告書ではISO/IEC JTC1 SC42国内委員会が日本政府と連携しながら、国際的な取り組みと調和する事の重要性について言及しています。3つ目は法的拘束力のある横断的な規制です。現段階では義務規定は特に定められていませんが、今後横断的な義務規定が議論される場合でも、リスクだけではなく潜在的な利益も加味したリスク評価を実施する必要があることが指摘されています。4つ目が個別分野等にフォーカスした規制です。規制を検討する際、情報技術の観点からではなく、業法を所管する組織が規制に関わる方が望ましい旨が言及されています。例えば、自動車分野においては自動運転に関する安全基準の策定など、これまでの規制に対する考え方を踏襲し、個別具体的に検討を進める必要があります。
AIガバナンスの国際的な議論の活発化を踏まえ、AI活用企業はAIインシデントのリスクにも目を向け、適切なAIガバナンスを検討していく必要があります。特にAI利用に関するステークホルダー(顧客、規制当局、株主、社内など)への説明責任は、これからより重要になってくると考えられます。AIのリスクコントロールについては、前述のように6つのリスクが存在しています。業界や企業によって重視すべきリスクや必要な取り組みは異なりますが、以下では、企業のAI活用推進の中で、特に問題となる2つの代表的なリスクについて紹介します。
1つ目は「公平性の確保」です。公平性については、学習データの偏り、アルゴリズムによる差別助長等についての検討が必要となります。学習データに偏りがある場合、そのデータを学習したAIにもバイアスがかかるリスクがあります。またアルゴリズムによる差別助長については、現実の差別が意図しない形で反映されていないか確認する必要があります。例えば、過去に同じ財務能力を共有する夫と妻において、異なるクレジットの貸し付け制限が与えられる事象が発生しました。この例は、アルゴリズムによるジェンダー差別を助長しているため、問題となっています。
2つ目は「プライバシーの確保」についてです。プライバシーを確保するには、個人情報保護のための体制の構築、ルール整備やルール実施状況のモニタリング等の検討が重要となります。ユーザーに対して適切な案内ができていないまま、後々データの利活用が明らかになった場合、企業は大きなレピュテーションリスクを抱えることになります。具体的な事例としては、妊娠予想に基づき、AIが関連商品をクーポンでレコメンドし、それが意図しない形で家族に知れ渡ってしまった事例が挙げられます。このインシデントでは、センシティブな情報を企業が予測しマーケティング活用していたこと、また家族を含む第三者にも知られる形で妊娠の可能性を示唆するクーポンを案内してしまっていることが問題になりました。
企業がAI利用を進める際、多様なステークホルダーへの説明責任を果たす必要があるため、AIガバナンスを適切に実施していくことはますます重要になってきています。現時点ではリスクの分析・評価に専門的な知見が必要になり、企業だけで評価することが難しい部分もありますが、整備が進んでいるガイドラインや、これまで発生したインシデントの傾向を踏まえ、AIガバナンスを実施していく必要があります。
国内外でAIの利活用が進む中、国際機関、各国政府におけるAIガバナンスの規制が制定され、日本においても内閣府が「人間中心のAI社会原則」を制定し、経済産業省が中間的ルールとなるガイドラインを制定しています。企業においても、AI活用の進むIT企業や規制が厳しい金融機関を中心にAIガバナンスの取り組みが本格化しています。
このような背景を踏まえ、PwCでは企業の収益改善・コスト削減等に貢献するAI活用推進だけではなく、「Responsible AI(責任あるAI)」の実現に向けた取り組みも同時に支援しています(図2)。
Responsible AIの導入支援では、AIのリスクコントロールの実現と、AIの投資効果の最大化を目的として、AIリスク診断、AIガイドライン・ポリシー構築、AIガバナンス態勢の構築、対策ツール導入、MLOps、人材育成等の支援を実施しています。
本記事で述べた通り、AIの社会実装が進む中で、これまでのルールではとらえきれない新たな課題が表出し、AI活用の専門家、情報技術、法学、倫理学、哲学等を巻き込んだ学際的な検討が国内外で進んでいます。この複合的な課題に対して、私たちがいかに社会や企業に貢献できるのか思慮することは非常に重要であると考えています。PwCは、「Responsible AI(責任あるAI)」の構築を通じた企業の競争優位性の確立、またAIガバナンスの高度化への支援を実施し、デジタル社会における信頼の構築に寄与してまいります。
1 PwC. (2017). Sizing the prize. PwC. Retrieved April 28, 2022, from
https://www.pwc.com/gx/en/issues/analytics/assets/pwc-ai-analysis-sizing-the-prize-report.pdf
2 総務省. (2017). 平成29年版 情報通信白書. 第1部 特集 データ主導経済と社会変革.