インタラクション2020インタラクティブ発表ます

インタラクション2020がオンライン開催となったため、資料をここで共有いたします。

旋律と「和声進行の緊張感」を入力する対話型和声付け支援システム

概要

本稿では, 旋律とともにその「緊張感」を入力することによって, 和声進行を出力するシステムを提案する. 単旋律に対する和声付けは専門性を要し, 特に音楽初学者にとって難解であるため, 直接和声を入力させることは難しい. これまで, コーパスとHMMに基づいて和声進行を自動作曲システムは存在する. しかし,コーパスに従う最も尤もらしい和声進行というのは概して「平均的」なものであるため, こうした自動作曲システムが出力するものががユーザの求めるものである保証は全くない. そしてユーザが生成結果に納得できなかった場合, これを修正するためには結局, 専門的な音楽知識が必要となってしまう. 本稿での提案は, 音楽初学者が専門的な知識なしに自動作曲システムと対話を行い, 対話を通じて「本当に求める音楽」に到達していくことを目指している. 着目したのは「緊張感の変化」である. 音楽初学者であってものこのパラメータの入力は比較的容易であり, かつシステム側からはこのパラメータからユーザの意図を推定しやすいことが, 本研究から明らかになった. そして, 最終的な評価実験の結果, 緊張感の変化を入力とするインタラクションが, 最終的に初学者の満足度を向上させることも示した.

概要動画

ポスター

システムへのリンク

http://27.83.54.254/PsychoacousticAutomaticHarmonizer/PsychoacosticHarmonizerUI_Improve/

論文

https://research.miyashita.com/papers/D229