Presentation Information

[5I1-OS-3-04]Probabilistic Safety Guarantees for Implicit Dangers via Pessimistic Calibration and Safety Filtering Policy

〇Koki Hirano1, Naoya Takeishi1, Takehisa Yairi1 (1. the University of Tokyo)

Keywords:

Safe Control,Conformal Prediction,Safety Filter

学習ベース制御の社会実装には、高いタスク遂行能力と安全性の両立が不可欠である。しかし、深層学習に基づく方策は予期せぬ危険な挙動を示すリスクがあり、一方で従来の最適化ベースの安全フィルタは、計算負荷や解の非存在、さらにフィルタ介入自体がデータの分布を変化させてしまうという課題を抱えていた。本発表では、ブラックボックスな方策に対して、数式モデルに依存せず確率的な安全性を保証する新たな枠組みを提案する。提案手法は、危険度を評価する予測器と、回避行動を生成する方策を同時学習させることで、最適化計算を学習フェーズに償却し、未知の危険に対する即応的な回避を実現する。さらに、統計的保証を与えるコンフォーマル予測の適用において、従来の厳密な分布の一致を要求するのではなく、較正データが実環境よりも過酷であればよいとする悲観的較正の概念を導入した。これにより、ドメインランダマイゼーション等を活用した実用的なデータセット設計のみで、分布シフトに対してロバストな安全性保証が可能となる。