{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2023-01-06
2022年12月20日開催の第2回の研究会をご視聴いただきまして、厚く御礼申し上げます。第2回研究会より、主に外部の有識者をお招きし、AI活用の盲点についてのお考えやご経験をお話しいただきます。
第1部の配信では、お2人の方にご登壇いただきました。
まず、三菱電機株式会社 情報技術総合研究所 開発本部 役員技監 三嶋英俊氏より、「データから得られる知識の功罪」についてお話しいただきました。三菱電機は2021年に「三菱電機グループAI倫理ポリシー」を公開し、AIガバナンスのさまざまな取り組みを始めています。アカウンタビリティを確保するための技術的な試みをしているものの、AI活用の死角や盲点をなくすことは容易ではないと言います。同社では、ステークホルダーにリスクについての想像力を具体的に働かせてもらう1つの例として、AIの思考プロセスを理解することをあきらめた未来はどのようなものかを描写する漫画を制作。こういった活動を通じ、さまざまなバックグラウンドの社員にAIがもたらす死角を感じて議論に参加してもらえるよう、工夫をしています。
続いて、理化学研究所 革新知能総合研究センター チームリーダー 中川裕志氏より、「弱そうに見えるAIの脅威」として 、1つ1つは脅威とならなくても、複数が重なることによって大きなリスクになり得ることをお話しいただきました。各モデルの説明可能性が果たせていても、複数のAIが共に働くと死角が生まれ、その説明可能性が果たせなくなることが多く、原因が究明できない予想外のインシデント発生もあり得ます。私たちはこうした脅威にどのように対処できるのかを考えさせられる講演でした。
第2部は東京大学未来ビジョン研究センターの江間有沙准教授リードのもと、第1部の配信内容を基にディスカッションを実施しました。今回も、議論を発散させる方向で進めました。ディスカッションは、企業や組織におけるAIガバナンスのインセンティブについての問いから始まりました。ソフトローで賄われている国内で、AIガバナンス実施のインセンティブを大きく感じられない組織が多い中、どのように従業員や関係者の課題認識や意識を上げていけるか。各組織や企業が単独で社会責任を定義していくことは困難なので、ポジティブな報酬の仕組みを作ったり、明らかに異常な事例は組織間でも共有したりするなど、社会全体での醸成が必要との意見が出ました。
企業におけるAIガバナンスの実施については、利点を見出せないという状況もある中で、明確なガバナンスコードがあったほうが良いという声や、現在のソフトローを支持する声など、さまざまな意見が飛び交いました。営利目的で動いている以上、民間企業が守るべきガバナンスコードは国が主導していくべきであるが、経済活動を強く縛るものを作るのではなく、入札点数を加算したり、税制を考慮したりするなど、ポジティブなインセンティブを与える方法を考えることも可能という声も上がりました。
組織や企業に、どのようにAIガバナンスを効かせていくか。すでに欧米のルールにも対策を取っていく必要がある日本企業にとって、新たな国内規制が多く制定されることは望むところではありません。そのため、例えばEUのブリュッセル効果(グローバルな規制におけるEUの影響力)に乗り、国内ではソフトローで進めるのが望ましく、体力がある企業から自主的に取り組むのが良いという意見が複数の方々から上がりました。
登壇者の講演内容にもあったように、個社での取り組みはとても大切である一方、企業の枠を超えて国内でどのような空気を作っていくのかを考えることも重要で、AIガバナンスの関係者は企業の外にも意識を向けていくことが求められます。また、外部環境の変化に伴い、ガバナンスのゴールを変える必要が出てくる可能性もあるため、企業間の関わりを想定した1つのシステムとして大きく捉え、アジャイルガバナンスの考え方で適応をしていくことも重要と言えます。複数のAIが説明可能性を失ってしまうこともあるように、複数の企業がせっかくの取り組みで死角を生み出さないためにも、組織間での連携をしながら、時には法律もアジャイルガバナンスの一部として活用しつつ、モジュールとして全体的に良い方向に転換を繰り返していけると良いと思われます。組織や企業のAIガバナンスに関わるステークホルダーが、自主的にこのような考えを持っていけるよう、引き続き、本研究会での議論を続けます。
1月に開催を予定している第3回研究会でも、引き続き、課題収集に向けた議論を予定しています。