講演情報
[9A-03]コンバーターを用いた効率的な不均一モデル構造間の連合学習
*エンケタイワン バトニヤマ1、松永 悠斗1、籾山 悟至1、宮川 大輝1、寺西 勇1 (1. 日本電気株式会社)
発表者区分:一般
論文種別:ロングペーパー
インタラクティブ発表:あり
論文種別:ロングペーパー
インタラクティブ発表:あり
キーワード:
不均一モデル構造、連合学習、IoT機器
スマート家電や監視カメラのようなIoT機器の普及に伴い、収集されたデータをデバイス内で処理することが求められている。このようなエッジ環境で各デバイスが入手できる学習データは限られているため、複数の機器が所有データのプライバシーを保ちつつ、協調しながら高性能なモデルを訓練する連合学習を用いることが注目されている。
本稿では、参加者がそれぞれ一つの事前学習モデルを特徴量抽出器として保有し、抽出された特徴量を使って下流タスクモデルを訓練する不均一モデル構造間連合学習を議論する。このような計算資源の異なる機器間の連合連合学習では、他の参加者の持つ事前学習モデルの推論を実行することが困難な場合がある。提案手法であるConvFLでは、各参加者は自身の保有する事前学習モデルの出力から他の参加者の事前学習モデルの出力に変換するコンバーターを用いることで、自身の事前学習モデルのみを扱うようにする。これによりコンバーターを使用しない連合学習に比べ、計算コストを削減しつつ、性能劣化を抑えることができる。
本稿では、参加者がそれぞれ一つの事前学習モデルを特徴量抽出器として保有し、抽出された特徴量を使って下流タスクモデルを訓練する不均一モデル構造間連合学習を議論する。このような計算資源の異なる機器間の連合連合学習では、他の参加者の持つ事前学習モデルの推論を実行することが困難な場合がある。提案手法であるConvFLでは、各参加者は自身の保有する事前学習モデルの出力から他の参加者の事前学習モデルの出力に変換するコンバーターを用いることで、自身の事前学習モデルのみを扱うようにする。これによりコンバーターを使用しない連合学習に比べ、計算コストを削減しつつ、性能劣化を抑えることができる。