{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
AIのリスクやガバナンスに関する用語をまとめ、カテゴリにまとめて紹介しています。
AIシステムにおいては設計思想の1つであり、「公正」「平等」「無差別」などともいわれます。
AIシステムの結果に影響を受ける人々を、その人種・性別・国籍・年齢・政治的信念・宗教などの多様なバックグラウンドを理由に不当に差別せず、全ての人々を公平に扱っている場合、「“実質的に”公平である」と言えます。
AIシステムに対する社会からの期待であり、設計思想の1つです。
組織または個人が、AIシステムのライフサイクルを通じて、AIシステムの結果が得られる過程や意思決定のプロセスが適切に機能していることを、法律的および倫理的な観点から実証することを求める責任です。
実証方法としては、重要な意思決定に関する文書の公開、必要に応じた監査実施などが考えられます。
AI倫理は倫理学の研究分野の1つである応用倫理学の一例とみなされています。
AIシステムの企画・設計・開発・運用・展開によって、時間的なプレッシャーが発生している、または合理性の制限が生まれているなどの状況下において、個人または組織が何をする義務を有しているか(あるいは許容されているか)というモラルの総称です。
AIシステムの設計思想の1つです。
AIシステムが高い説明可能性を有しており、AIシステムの結果に影響を受ける人々がAIシステムを理解し、適切に信頼し、効果的に管理できている場合、AIシステムは説明可能なAIであると言えます。
AIシステムの設計思想の1つです。
適用される法律や規制を確実に遵守し、倫理的な価値を尊重するとともに、その遵守を保証しており、技術的および社会的な観点から堅牢である場合、AIシステムは信頼できるAIであると言えます。
信頼できるAIは、AIシステムの信頼性だけでなく、ライフサイクルに関わる全てのプロセス、関係者の信頼性にも関わるものです。
AI の利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクトを最大化することを目的とする、ステークホルダーによる技術的、組織的、及び社会的システムの設計及び運用。(経済産業省「我が国の AI ガバナンスの在り方」より)
AIシステムの設計思想の1つです。
パーソナルデータとAIシステムを用いて、特定個人の趣味嗜好・能力・信頼性・知性・行動などを分析または予測することを指します。
AIシステムの設計思想の1つです。
外部の影響を受けない行動またはタスク実行が可能な場合、自律型AIであると言えます。
AIシステムの設計思想の1つです。
AIシステムの企画・設計・開発・運用・利用・監視の方法が、人間の価値や人権を中心にしている場合、人間中心のAIと言えます。
人間中心のAIは、自然環境や他の動物への配慮、将来の世代の繁栄に向けた持続可能なアプローチも含みます。
AIシステムの設計思想の1つです。
AIの開発・展開・利用において、倫理的な価値を尊重するとともに、その遵守を保証している場合、倫理的なAIであると言えます。
AIシステムの設計思想の1つです。
システムの意思決定サイクルに人間が介入する場合、ヒューマン・イン・ザ・ループであると言えます。
これには、特定の条件下でAIシステム利用しないという決定、システムによる決定を覆す判断なども含まれます。
AIライフサイクルには、「1.Strategy」(企業戦略、業界標準調査など)、 「2.Planning」(事業企画、ポートフォリオ管理など)、「3.Ecosystem」(体制構築、調達など)、「4.Development」(データ抽出、モデル開発など)、「5.Deployment」(モデル統合、展開など)、「6.Monitor & Report」(監視、運用など)の6つのフェーズが含まれます。これらのフェーズは、必ずしも連続的ではなく、反復的に行われることが多いです。
AIシステムに対して敵対的な攻撃を行うなどして、セキュリティ上の潜在的な脆弱性の検証を行うチームのことを指します。
AIシステムの体制とは独立して設置されます。
AIシステムの特性の1つです。
AIシステムの結果が得られた過程について、AIシステムの結果の影響を受ける非技術者が理解しやすく、意味を見出せる情報を提供できる場合、説明可能性が高いと言えます。
AIシステムの特性の1つです。
学習やテストに利用していないデータに対しても、期待どおりに出力できるのであれば、AIの信頼性が高いと言えます。
AIシステムの特性の1つです。
AIシステムがどのように開発・訓練・運用・展開されているかについて、AIシステムの結果に影響を受ける人々が、高い追跡可能性または説明可能性を有した情報にアクセス可能であり、AIシステムの制限や機能限界に関するオープンなコミュニケーションができる場合、透明性が高いと言えます。
従って、ソースコードやデータセットなどの著作物の開示や共有を行うことは必須ではありません。
AIシステムの特性の1つです。
データ入力がデータ出力までに発生した一連の処理の追跡結果を、必要に応じて取得できる機能を有している場合、追跡可能性が高いと言えます。
AIシステムの特性の1つです。
人・物・立場に対する偏見の傾向のことであり、良いバイアスも悪いバイアスも存在します。
例えば、AIシステムがある特定のコミュニティに最適化されており、他のコミュニティに一般化する必要がない場合、全体から見ると「バイアスが生じている」と言えますが、その特定コミュニティに限定した利用の場合は問題ないと考えることもできます。
AIシステムの特性の1つです。
AIシステムのアルゴリズム・データ・設計プロセスの評価を受けることができる場合、監査可能性が高いと言えます。
従って、ビジネスモデルや知的財産に関する情報を常に開示することは必須ではありません。
AIシステムの初期設計段階から、追跡可能性とログの仕組みを確保することで、監査可能性を高めることができます。
AIシステムの特性の1つです。
AIシステムの判断根拠や判断ロジックを理解できない場合、ブラックボックスであると言えます。
対策として、説明可能性を高める必要があります。
AIシステムの特性の1つです。
予期せぬ変化であり、主に経年によるAIモデルの予測精度劣化のことを指します。
入力データに発生したドリフトを「データドリフト」、正解ラベルの意味合いに発生したドリフトを「コンセプトドリフト(概念ドリフト)」などと呼びます。
AIシステムの特性の1つです。
同じ入力データを入力した場合、同じ挙動を示せば再現性があると言えます。
AIシステムの特性の1つであり、技術的な堅牢性と社会的な堅牢性が存在します。
技術的な堅牢性とは、意図しない入力データに対して柔軟に対応可能(適切な予測結果の出力など)であると言えます。
社会的な堅牢性とは、AIシステムが動作する環境や状況を正確に考慮していることを言います。
AIシステムの特性の1つです。
学習データとは異なるテストデータに対して、AIシステムの予測と正解を比較した結果のことを指します。
学習データとテストデータの収集条件や時期が異なる場合、精度が変化することもあります。
説明可能性を確認する手段の1つです。
AIモデルから出力された予測結果に対して、シャープレイ値を用いて、各特徴量の重要度を割り当てる手法です。
説明可能性を確認する手段の1つです。
AIモデルから出力された予測結果に対して、AIモデルを線形モデルに近似させ、各特徴量の重要度を割り当てる手法です。
説明可能性を確認する手段の1つです。
画像を入力とするAIモデルに対して、特徴量マップ(Feature Map)を用いて顕著性マップ(saliency map)を作成し、予想結果に対して重要度が高いピクセルを示す手法です。
当初は厳しい制約条件が存在しましたが、制約条件の緩和したGrad-CAM、Score-CAM、Group-CAM などが登場しています。
大手グローバルIT企業が提唱した、透明性を確認する手段の1つです。
学習済みのAIモデルに付随する短いドキュメントで、モデルに関する情報(バイアスに関するさまざまな条件下でのベンチマーク評価結果、想定している使用方法、性能評価手順の詳細など)を提供します。
バイアスを強めるため手段の1つで、「過剰適合」とも呼ばれます。
AIモデルが学習データに適合しすぎている状態を指し、新しいデータに対して、予測精度が著しく劣化することがあります。
信頼性を確認する手段の1つです。
信頼区間や出力が正しい確率を用いるなどして、予測の不確実性を定量化する手法です。
信頼スコアが低いことは、AIモデルが出力に自信がないことを意味します。
バイアスを評価する手段の1つです。
2つのグループから肯定的な結果が得られる可能性が同じであることを評価します。
バイアスを評価する手段の1つです。
2つのグループの真陽性と偽陽性の割合が同じであることを評価します。
バイアスを評価する手段の1つです。
2つのグループの真の陽性率は等しいことを評価します。
バイアスを評価する手段の1つです。
ある特定のタスクに対して、類似する独立した2人の個人が、類似した結果を取得していることを評価します。
バイアスを評価する手段の1つです。
ある特定のバイアスに関する情報が、明示的に利用されていない場合、AIシステムが公平であることを評価します。
リスクテイクに対する結果責任(説明責任)を負うとともに、リスクコントロールの役割を担うものを指します。
ML(機械学習)とOperation(運用)を組み合わせた造語で、AIシステムの確実かつ効率的な展開・維持・改善を目的とした概念です。
さまざまな企業から、目的を達成するためのツール群がリリースされています。
AIシステムは、人間によって設計された機械ベースのシステムの一種です。
与えられた目標に対して、データ取得により環境を認識し、取得データの分析を通じ、認識を抽象化することでモデルを作成します。そしてそのモデルを利用して、与えられた目標を達成するための何かしらのアクションを起こします。
AIシステムが有するリスクの1つです。
AIシステムの誤った予測や不適切な利用に基づいた意思決定が、特に収益、財務状況、レピュテーションなどに重大な損害を与えることを危惧しています。
主に金融業界で用いられる用語です。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
サイバー攻撃やプライバシー侵害など、AIに関するセキュリティ上のリスクが分類されます。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
人的ミスやAIシステムの暴走など、運用中のAIシステムの制御に関するリスクが分類されています。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
レピュテーションリスクや人工知能デバイドなど、AIシステムが社会的に受け入れられない場合に発生するリスクが分類されます。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
職業の配置転換や不利益の享受など、AIシステムの導入が経済活動に与える影響に関するリスクが分類されます。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
バリューアライメントやゴールアライメントなど、倫理的でないAIシステムに発生するリスクが分類されます。
AIシステムの開発および利活用に関わるリスクを分類する軸の1つです。
説明可能性やバイアスに関わるリスクなど、AIシステムが要求される機能・特性を有していない場合に発生するリスクが分類されます。
人工知能の恩恵を受けられる人と受けられない人との間で、得られる情報や利用できるサービス、それに伴う収入に格差が生じることを指します。
機械学習の観点から見て、人間の持つ価値観や倫理観を機械にどのように学習させるかという問題のことを指します。
人の目標と一致した目標を、機械にどのように学習させるかという問題のことを指します。
本用語解説は2022年12月1日現在の法令等に基づいて作成されており、これ以降の改正等が反映されていない場合がありますのでご留意ください。また、本用語解説は概略的な内容を紹介する目的で作成されたもので、プロフェッショナルとしてのアドバイスは含まれていません。個別にプロフェッショナルからのアドバイスを受けることなく、本解説の情報を基に判断し行動されないようお願いいたします。