Presentation Information

[1M4-GS-5x-03]Prompt Optimization for Multi-Agent Reasoning

〇Takumi Yoshimoto1, Masaru Isonuma1,2,3, Junichiro Mori1,3, Ichiro Sakata1 (1. The University of Tokyo, 2. National Institute of Informatics, 3. RIKEN)
[[online]]

Keywords:

Language model,Continuous token,Prompt optimization

本研究では、大規模言語モデル間で連続トークンを伝達するマルチエージェントにおいて、各言語モデルへ推論タスクとともに入力されるプロンプトを、勾配降下法により同時最適化することに取り組む。文章を生成する際、言語モデルはまずトークンの確率分布(連続トークン)を計算し、そこから離散トークンをサンプルする。通常のマルチエージェントでは、離散トークン列を別の言語モデルに入力することで情報伝達が行われるが、連続トークンを言語モデル間の入出力に用いることもできる。その結果、各トークンの確率に関する情報がサンプル時に失われず、推論タスクにおける正解率が向上することが報告されている。しかし正解率は、マルチエージェントの構成だけでなく、推論タスクとともに入力されるプロンプトにも依存する。そこで、連続トークンを伝達するマルチエージェントに対して、各言語モデルへ入力するプロンプトの埋め込みベクトル列を勾配降下法により最適化することで、推論性能が向上するか検証する。