Presentation Information
[24p-31A-10]Quantization Method and Quantization Aware Training with Computation-in-Memory for Making Vision Transformer Compact
〇Naoko Misawa1, Ryuhei Yamaguchi1, Ayumu Yamada1, Chihiro Matsui1, Ken Takeuchi1 (1.Univ. Tokyo)
Keywords:
Vision Transformer,Quantization method,Quantization Aware Training
Vision Transformer(ViT)は,畳み込み処理を行わず,大規模なデータセットで事前学習したモデルをタスクに応じてFine-tuningし,高い精度を達成することで注目されている.一方,モデルのサイズが大きく,計算量が多い.そこで,ViTで多く用いられる行列演算を不揮発性メモリを用いたComputation-in-Memory(CiM)へマッピングし,従来のViTのメモリサイズを10分の1に小型化する.