Presentation Information
[4Yin-B-49]Self-Supervised Multimodal Classification of Preclinical Alzheimer’s Disease from Speech and Language
〇QIANQIAN ZHOU1, Kazuya Tsubokura1, Yurie Iribe1, Katsunori Yokoi2, Akinori Nakamura2, Norihide Kitaoka3, Masahisa Katsuno4 (1. Aichi Prefectural University, 2. National Center for Geriatrics and Gerontology, 3. Toyohashi University of Technology, 4. Nagoya University)
Keywords:
Alzheimer’s disease,Dementia detection,Multimodal learning,Self-supervised learning,Acoustic features
近年,高齢化の進行に伴いアルツハイマー病(AD)患者が増加し,早期発見の重要性が高まっている.従来は軽度認知症(MCI)を対象とした研究が中心であったが,MCI段階では既に不可逆的な神経細胞死が進行している.そのため,前段階であるプレクリニカルAD(以降,プレAD)の兆候を捉えることが重要である.しかし,プレクリニカルAD のような自覚症状の乏しい段階では,プレADを診断するPET検査を受診するとは考えづらい.そこで本研究では,日常で交わす自由会話音声から音響的・言語的特徴を抽出し,プレADを識別する手法を提案する.
本研究では自己教師あり学習により構築された音響モデルと言語モデルを用いた識別性能の比較を行った.その結果,音響モデルは言語モデルよりも高い識別性能を示した.特徴量を分析すると,話速やポーズのような特徴において,健常者とプレADの間で有意な差が認められた.次に音響モデルと言語モデルを統合したモデルを構築し,識別性能を確認したところ,正解率81.2%,感度80.0%を得た.今後は見落とし低減に向けた識別手法の改善を行う予定である.
本研究では自己教師あり学習により構築された音響モデルと言語モデルを用いた識別性能の比較を行った.その結果,音響モデルは言語モデルよりも高い識別性能を示した.特徴量を分析すると,話速やポーズのような特徴において,健常者とプレADの間で有意な差が認められた.次に音響モデルと言語モデルを統合したモデルを構築し,識別性能を確認したところ,正解率81.2%,感度80.0%を得た.今後は見落とし低減に向けた識別手法の改善を行う予定である.
