講演情報
[15p-S2_204-8]省学習コストかつ入力文章が拡張可能な大規模言語モデルベース物性予測モデルの開発
〇(M1)山本 竜馬1、高橋 亮1、寺山 慧1,2、熊谷 悠3、大場 史康1 (1.東京科学大IIR、2.横浜市大生命医科、3.東北大金研)
キーワード:
機械学習、大規模言語モデル、マテリアルズインフォマティクス
本研究では、⾃然⾔語による結晶構造記述⽂から⼤規模⾔語モデル(LLM)を⽤いて物性を予測するモデルである ZEBRA-Prop を提案する。 ZEBRA-Prop は先⾏研究の LLM-Prop と⽐較して省学習コストかつ⽂章⻑の制約が少ないという特徴を持つ。物性予測タスクでの検証の結果、ZEBRA-Prop は LLM-Prop に匹敵する予測精度を持ちながら、学習コストを95%削減できることがわかった。
