講演情報

[4Yin-A-46]大規模言語モデルにおけるNeglect-zero効果の分析

〇田中 仁1、松岡 大樹1,2、九門 涼真1,2、谷中 瞳1,2,3 (1. 東京大学、2. 理化学研究所、3. 東北大学)

キーワード:

大規模言語モデル、推論、Neglect-zero効果、構造プライミング

大規模言語モデル(LLM)は表面上,人間のように自然言語を処理しており,このメカニズムが人間の認知プロセスとどれほど類似しているかに大きな関心が寄せられている.このような背景の下,Neglect-zero効果と呼ばれる人間の認知バイアスに焦点を当てる.このバイアスは命題を空虚に真にするモデルを考慮の対象から外すというものであり,分配推論や自由選択といった推論現象の根底にあるという仮説が立てられている.そして,この仮説は人間を対象とした実験で既に検証されている.そこで,本研究は,LLMの認知プロセスにもNeglect-zero効果が関与しているのかどうか示すことを目的とする.そのために,我々は構造プライミングを用いて,Neglect-zero効果を背景とする推論と,そうでない推論におけるLLMの処理プロセスを比較する.本研究の結果,LLMにおいてはNeglect-zero効果が存在しないことが示唆された.