{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2023-04-14
2023年3月24日開催の第5回研究会をご視聴いただきまして、厚く御礼申し上げます。今回は、本研究会の名称にも含まれている「DEI」の根幹にある公平性について、登壇者より課題提供をいただき、参加者の方々とディスカッションしました。
第1部の配信では、お2人の方にご登壇いただきました。
慶応義塾大学 法学部 教授 大屋雄裕先生より、価値の構造と概念分析についてお話しいただきました。大屋先生も作成に関わった「人間中心のAI社会原則」(内閣府「統合イノベーション戦略推進会議」、2019年)の基本理念とAI社会原則について解説していただいた後、法哲学の立場から、個人的・社会的な価値を測る方法や、客観的リスト説の例であるフィニスによる基本善の定義などについても説明していただきました。
類と種差を考えたうえで、「アンティゴネー」「抗議活動」「尊厳死」といったような人間の尊厳を否定する、人間の意に沿わない状態や行為の強制の共通性に着目することで、時に「人間の尊厳とは何か」の理解が促されます。
また、「平等」と「衡平」「正義」の違いにも触れ、状況に合わせて個体数を考慮する均一な分配(均一分配)ではなく、必要性や不足を考慮する理解も必要としながらも、法哲学的な主流は属性に比例した分配(比例分配)が平等論的正義であると説明していただきました。一方で、比例分配を否定する見解もあり、最不遇者に優先的に分配することを要請する「優先主義」や、何らかの閾値を下回らない程度に「十分に」享有していればよいとする「十分主義」などが含まれるとし、人間の尊厳や公平性を議論するうえで、さまざまな考え方や課題があることをお示しいただきました。
続いて、株式会社ファンリーシュ 代表 志水静香様より、DEIを促進するためのAIと公平性について、日本企業の人事業務に長年携わってこられた経験を踏まえてお話しいただきました。企業がDEIに取り組む理由として、企業側からは倫理的理由や従業員の成長、インベーションや創造の推進などが挙げられるものの、マーケティングの要素を強く感じてしまうことも多くあります。特に日本の企業は採用の際にはDEIへの取り組みを強くアピールする傾向が強いとのことですが、入社後のフォローまでできている企業はとても少なく、働き始めてから孤独や居場所のなさを強く感じる社員が多数おり、そのような企業は概して、DEIのIである「インクルージョン」が苦手だそうです。あらゆるバックグラウンドを持つ従業員が「ありのまま」で組織に貢献できるよう、企業には「意思決定に参加させる」「挑戦する機会を与える」「ありのままの個性を受容する」という配慮が求められます。
第2部は江間有沙准教授のリードのもと、第1部の配信内容を基にディスカッションを実施しました。今回の研究会も、企業や政府機関でAIの利活用に関わる方々にご参加いただきました。
「公平性」というと年齢や性別が対象となることが多く、多くの組織がすでにこれらの確保に取り組んでいます。アファーマティブアクションの一環として意図的に機会を多く与えるケースも見受けられますが、より均等な機会が与えられ、挑戦する機会が増えたことにより、能力を磨く機会も多く得られるようになりました。
ビジネスでAIを活用するにあたり、ヘルスケアデータやオンラインでの購入履歴などさまざまなデータをインプットすることで、与信を含む個人の信用評価を実施できるようになりましたが、これははたして公平な結果をもたらすでしょうか。例えば、健康的なリスクを多く抱えるグループに属すると高額な保険料が算出されるなど、個人の変数に頼ることにより形式的に平等な結果を得ることはできます。しかし、私たちは実質的な良さを考える必要があり、そのためには「社会的に目をつぶるべきものもある」との意見もありました。私たちは時間とともに価値観をアップデートし続けることが求められますが、それはAI単独で行うことはできません。
では、公平性を実現しつつAIを活用することは、可能なのでしょうか。AIは過去のデータを学習してアウトプットを出すため、これまでの不公平性の影響が出てしまう可能性があります。また、データ化されていない事象を反映することもできません。「日本」というくくりで考えるのは少し乱暴ですが、ノンバーバルコミュニケーションが重要な意味を持ってきた社会で、その微妙なニュアンスをAIが学習するのは難しいため、AIを活用するにあたってのハードルになり得ます。AIの利活用のために全てをデータ化するという案もありますが、それにより、ノンバーバルコミュニケーションの存在により保たれてきた均衡が崩れてしまう可能性も高く、「悪い」部分のみを変えることは難しいでしょう。
今後、AIの利活用とともに公平性を守っていくためには、代替変数にもしっかり対応するなどの対策が必要です。人事関連でAIを活用する際も含めて、「どこでヒトが介入して制御するべきか」を考える必要があります。また、AIの利活用が進むにあたり、「仕事を取られてしまうのではないか」との心配から属人的な働き方に執着し、情報共有やナレッジトランスファーができない場合もあります。しかし、AIを活用することにより、ヒトはよりクリエイティブな作業に時間を費やすことができるようになり、良い意味での役割分担は可能です。
これまでは、AIはヒトの命令に基づいて働いてきましたが、センシング技術の進化によりAIはヒトの意識に関係なく情報を取り込み、処理できるようになりました。ヒトが感じる寒さに応じて暖房設備が自動で空調を制御するなど、ヒトと機械でタスクを完結することもできます。しかし、全てがこのようにルーティン化するのをヒトは望んでいません。アルゴリズムに支配されて良いところと、ヒトが制御すべきところと分けて考え、大量の情報に囲まれながらも、ヒトはこれまでより一層、言葉の表層だけではなく意味を深く考えることでAIと共存しなくてはなりません。
今回は、DEIの基本概念である公平性とAI利活用にについて議論を行いました。AIは過去のデータを学習しますが、私たちは社会全体で公平性について深く考え、それをAIに教えていかなくてはなりません。そのためには、新しいデータの学習が必要であり、企業のAI導入においてもデータ収集が課題となっています。
次回は、さまざまなデータを収集し、社会全体で利活用する「データ流通」の概念や、「データの民主化」について議論します。