Presentation Information

[4Yin-A-11]Improving Virtue Ethics Judgment by LLM through Fine-tuning and Prompt Optimization with Explanatory Text

〇Kota Hattori1, Toru Sugimoto2 (1. Graduate School of Engineering and Science, Shibaura Institute of Technology, 2. College of Engineering, Shibaura Institute of Technology)

Keywords:

Large Language Model,fine tuning,virtue ethics

大規模言語モデル(LLM)が倫理的に適切な応答を生成するためには,行動の表面的な評価だけでなく,行為者の意図や性格特性を把握する能力が重要である.しかし既存の研究では,行為者の性質に焦点を当て道徳性を評価する「徳倫理」において,LLMの正解率は功利主義など他の道徳的判断と比較して低いことが報告されている.本研究では,性格を表す用語と具体的行動の関連性を明示的に学習させることで意図や性格特性の把握能力を高め,徳倫理判断の正解率を向上させる手法を提案する.
 本手法では既存の徳倫理データセットを改良し,行動文,性格用語および両者の関連性を記述した説明文を含む16,485件のデータセットを構築した.このうち5000件を学習データとしてGPT-4o-miniのファインチューニングを実施し,さらにプロンプト最適化を併用してテストデータ1000件で評価を行った.
 評価の結果,ベースライン手法(8-shotプロンプト)の正解率0.140に対し,本手法の正解率はファインチューニングのみで0.350,プロンプト最適化のみで0.390,両者の併用で0.405に達し,約2.9倍の性能向上を確認した.