Presentation Information
[4Yin-A-51]Direct–Reverberant Sound Separation with Spatial Information Awareness Based on Deep Learning and the Sparse Equivalent Source Method
〇Meika Iwamatsu1, Ryosuke Onizawa1, Ayame Uchida1, Izumi Tsunokuni1, Yusuke Ikeda1 (1. Tokyo Denki University)
Keywords:
Primary-Ambient Extraction,source separation
近年、立体音響の流行により、空間的な音場演出手法が必要となっている。特に、直接音と残響音の大きさや周波数特性の制御は、コンテンツの印象を左右する重要な手法である。しかし、実環境で録音された信号には両成分が重畳しており、それらを分離して制御することは容易ではない。また、立体音響に応用する場合、音の到来方向などの空間情報を保持したまま分離することが求められる。近年、両成分を分離するPrimary-Ambient Extractionが研究されているが、分離性能にはさらなる改善が求められる。一方、分離には音場のモデル化が有効な手段であり、代表的なモデル化手法である等価音源法は空間情報を表現可能な手法として知られている。 そこで、本研究では、スパース等価音源法と深層学習を用いて、直接音と残響音を空間情報を保持したまま分離する手法を提案する。深層学習を用いて、録音信号から直接音を表現する等価音源の位置およびその重みをスパース性を仮定して推定する。2つの球形マイクロホンアレイを用いたシミュレーション実験によって、直接音と残響音の分離精度を評価した結果、提案手法には一定の有効性が確認された。
