Presentation Information

[T1-B-1-03]LLMにおけるAttention機構の役割の分析

*大塚 空来1、湯本 高行1 (1. 兵庫県立大学)
発表者区分:学生<br/>論文種別:ロングペーパー<br/>インタラクティブ発表:あり

Keywords:

自然言語処理,Transformer,LLM,Attention