講演情報

[T1-B-1-03]LLMにおけるAttention機構の役割の分析

*大塚 空来1、湯本 高行1 (1. 兵庫県立大学)
発表者区分:学生<br/>論文種別:ロングペーパー<br/>インタラクティブ発表:あり

キーワード:

自然言語処理、Transformer、LLM、Attention