講演情報

[5Yin-A-32]スパースバイナリニューラルネットワークによる計算効率と説明可能性の向上に関する研究

〇柴田 豪人1、小林 邦和2 (1. 愛知県立大学大学院、2. 愛知県立大学)

キーワード:

ニューラルネットワーク、Extreme learning machine、バイナリ化、スパース化、XAI

本研究では,深層学習における膨大な計算資源の消費とブラックボックス性という問題を解決し,エッジデバイスへの実装を容易にするため, Extreme Learning Machine(ELM)に対し完全なバイナリ化とスパース化を適用した3層ニューラルネットワークモデルを提案する.従来の多層パーセプトロン(MLP)やバイナリニューラルネットワーク(BNN)は誤差逆伝播法による反復学習が必要であり, ELMは高速だがメモリ消費が大きいという課題があった .これに対し,本研究の提案手法では,ELMに対し隠れ層の出力とクラスラベル間の相関学習に基づく非反復的な学習アルゴリズムを導入した .モデル構造を{0, 1}のスパースなバイナリ表現に統一し,従来のMLPやELMが行っている浮動小数点乗算を排除し,整数加算のみで構成することで,計算およびメモリ効率を大幅に向上させた .CIFAR-10データセットを用いた実験の結果,提案手法はMLPと比較して学習時間を約1/3に短縮し,モデルサイズを約1/190に圧縮することに成功した.また,提案手法は93.42%という高い正解率を達成し,MLPに匹敵する性能を示した .以上より,本手法は計算コスト,精度のトレードオフを解消する有効な手法であると示された.