講演情報

[4Yin-B-22]人間中心AIにおける意思決定支援と責任の設計― 倫理・説明可能性・判断責任の観点から ―

〇白倉 幸樹1 (1. 日本郵便株式会社)

キーワード:

人工知能倫理、人間中心AI、意思決定支援、説明可能性、責任と判断

近年、人工知能(AI)は意思決定支援システムとして社会の様々な領域に導入されているが、その判断に対する責任の所在や説明可能性をめぐる課題が顕在化している。 本研究は、人間中心AIの観点から、AIによる意思決定支援において人間とAIがどのように役割を分担し、判断責任を構造的に設計すべきかを検討する。 倫理、説明可能性、判断責任の三つの視点から整理を行い、AIが人間の判断を代替するのではなく、判断を支援しつつ責任の最終的帰属を人間に保つための設計原則を提示する。 本稿は、AIの社会実装における倫理的・制度的設計に対する基礎的枠組みを提供することを目的とする。