{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
AIの活用にあたっては、リスクに対してプロアクティブに対処し、AIの責任を認めなければなりません。
AIの負の側面を取り上げた、不安をかき立てるような記事が多くありますが、ビジネスリーダーは動じてはいないようです。回答者(AIに積極的に取り組んでいる企業幹部)の85%は、自社はAIのリスクに十分な対応策を講じていると答えています。しかしこの結果は、取り組むべき実際の課題と、責任ある形でAIを活用するのに必要な努力に関して、認識が足りないことを示しています。また、意思決定やデータに関するコントロールの実施など、この回答を裏付ける活動については、まだとても十分とは言えません。
データやAIモデル、アウトプット、報告に関連するリスクに本格的に取り組んでいるのは、調査回答者の約3分の1に過ぎませんでした。アルゴリズムや顔認証ツールにおける偏り、AIを利用した「ディープフェイク」などの問題に対する社会の懸念を考えると、これは決して良い結果とは言えません。AIは日常業務やベンダーが提供するソリューションにますます(しかも、多くは目に見えない形で)取り入れられるようになっており、AIのリスクマネジメントの重要性は増大しています。
これらのリスクを完全に排除することはできなくとも、責任あるAI[English]に向けた5つの側面からのアプローチでリスクを軽減することは可能です。具体的には、偏り、説明可能性、サイバーセキュリティ、倫理といった重要課題への取り組みに必要なプロセス、ツール、コントロールを統合することです。また、「責任」は従業員に対しても当てはまります。AIが従業員の代わりに単調な業務を担うのに伴い、企業は従業員のアップスキリングやクロススキリングに投資するべきです。そうすれば、従業員はより価値の高い業務に携わる機会を得られるとして、AIの導入を歓迎するようになります。
本調査によると、企業幹部が最も力を注いでいる分野はAIを解釈可能および説明可能にすることでした[English]。回答者の50%が、システムの構築や運用に携わる従業員に対する説明可能性に関する策を講じており、49%はシステムの影響を受ける従業員に対する説明可能性に注力しています。また、データと技術の倫理[English]に関わる大きな課題への対応には、顧客、同業他社、規制当局、テクノロジー企業との協力が必要であることを企業が理解し始めていることも分かりました。
心強いのは、回答者の大半が全社的なAIガバナンスを実施していることです。その責任を担うのは、新規のAI専門センター・オブ・エクセレンス(CoE)(18%)、データ&アナリティクス担当グループ(18%)、全社を統括するAIリーダー(16%)、外部業者(16%)、自動化担当グループ(15%)です。
しかし、16%はAI戦略とガバナンスを各ビジネスユニット・部門に委ねています。こうしたアプローチは、厳しい予防策を講じないと、AIの可能性を制限し、管理とセキュリティ確保を難しくする恐れがあります。一例を挙げると、AI調達のガバナンスを全社的に慎重に実施しなければ、悪質なベンダーが重要な知的財産を盗むこともあり得るのです。
データやAIモデル、アウトプット、報告に関連するリスクに本格的に取り組んでいるのは、調査回答者の約3分の1に過ぎませんでした
どのようなガバナンス体制を採用するかにかかわらず、ガバナンスを担当するチームには経営管理、調達、コンプライアンス、テクノロジー、データの専門家に加えて、異なる部門のプロセス責任者を含める必要があり、また、会社全体を対象とするべきです。
リスクおよびコンプライアンス部門の支援を得て、AIのあらゆるリスク側面[English]に対する適正なAI標準、コントロール、テスト、監視体制を確実に整えます。サイバーセキュリティやクラウドセキュリティに対するのと同様に、AIアシュアランス(AIプロセスのチェックと保証)への予算も必要になるでしょう。
良好なガバナンスとリスクマネジメントは、必ずしもビジネスの進捗を遅らせるわけではありません。例えば、説明可能性の適切なレベル[English]は、各AIモデルのリスクレベルによって異なり、場合によっては迅速な対応を可能にします。また、多くのガバナンスプロセスは自動化が可能で、モデルシートにデータを取り込んだり、人がレビューできるように自動的にリスク評価の判定を行ったりすることができます。