Presentation Information

[2N1-GS-6x-03]Shogi-Specific LLM DevelopmentBuilding and Evaluating a Dataset via Integration of Board State and AI-Generated Descriptions

〇Ryuya Fujita1, Hiroaki Kuwahara1 (1. Shibaura Institute of Technology)
[[online]]

Keywords:

Shogi AI,Explanation Generation,Large Language Model,Explainability

近年の将棋AIは人間を凌駕する棋力を持つが,その出力は数値や符号の羅列に留まり,判断根拠の説明可能性の欠如が課題である.特に中終盤の最善手は人間の直感と乖離し,初級者がその意図を理解することは困難である.そこで本研究では,コンシューマ環境下で,詰みのない終盤の「次の一手」を自然言語で解説可能なモデルの構築手法を提案する.具体的には,Qwen-2.5-7B-Instructを対象に,QLoRAを用いてファインチューニングした.学習データセットは,将棋AIの解析とGemini 3.0 Proによる生成,人手監修を組み合わせ,約100件の高品質なものを構築した.本手法の独自性は,評価値などの解析情報に加え,AIの推定選択率を学習データに組み込んだ点にある.これにより,単なる優劣に加え,選択率に基づきその手が「自然な手」か「盲点」かといった文脈を解釈し,言語化可能とした.評価の結果,提案モデルはベースモデルより解説の正確性と流暢性が向上した.特にハルシネーションが低減し,数値に基づきAIと人間の感覚の乖離を説明する能力を獲得した.本研究により,小規模データとコンシューマ環境であっても,解析数値を活用し,実用的な将棋解説AIの実現可能性を示した.