講演情報
[1Yin-A-67]食感ビッグデータを用いた大規模言語モデルのファインチューニングと内部表現の解析
〇門脇 幸汰1、武政 誠1 (1. 東京電機大学大学院)
キーワード:
食感、大規模言語モデル、ファインチューニング
大規模言語モデル(LLM)は、特定領域の専門データを用いてファインチューニングすることで、より高度な性能を備えたモデルとして応用が進められている。我々は、食感ビッグデータを取得可能とすべく、食品圧縮試験をロボットアームで自動化し、数値化された食感として、合計20万件以上の食感ビッグデータを構築している。従来の食感評価法では、機器分析と官能評価の結果に乖離が生じる課題があった。LLMを食感ビッグデータでファインチューニングすることで、食感を数値から文章化して定量的かつ定性的に、ヒトの感覚に近い表現で評価が可能になると期待される。オープンウェイトモデルのLLMをファインチューニングした後に潜在空間における食感情報の変化が確認され、データセットサイズの拡大に伴いその変化量が増大すること、1000回規模のデータセットによるファインチューニングで、変化は収束する傾向が見られた。これは、LLMの内部表現に食感情報を埋め込む上で食感ビッグデータが重要であること、食感の実測数値に基づいてLLMが内部表現レベルで構造化された知識として獲得できる可能性を示唆している。
