Presentation Information

[24p-31A-10]Quantization Method and Quantization Aware Training with Computation-in-Memory for Making Vision Transformer Compact

〇Naoko Misawa1, Ryuhei Yamaguchi1, Ayumu Yamada1, Chihiro Matsui1, Ken Takeuchi1 (1.Univ. Tokyo)

Keywords:

Vision Transformer,Quantization method,Quantization Aware Training

Vision Transformer(ViT)は,畳み込み処理を行わず,大規模なデータセットで事前学習したモデルをタスクに応じてFine-tuningし,高い精度を達成することで注目されている.一方,モデルのサイズが大きく,計算量が多い.そこで,ViTで多く用いられる行列演算を不揮発性メモリを用いたComputation-in-Memory(CiM)へマッピングし,従来のViTのメモリサイズを10分の1に小型化する.