インタラクション2020にてインタラクティブ発表します!

インタラクション2020にてインタラクティブ発表します!

インタラクション2020がオンライン開催となったため、資料をここで共有いたします。

旋律と「和声進行の緊張感」を入力する対話型和声付け支援システム

概要

本稿では, 旋律とともにその「緊張感」を入力することによって, 和声進行を出力するシステムを提案する. 単旋律に対する和声付けは専門性を要し, 特に音楽初学者にとって難解であるため, 直接和声を入力させることは難しい. これまで, コーパスとHMMに基づいて和声進行を自動作曲システムは存在する. しかし,コーパスに従う最も尤もらしい和声進行というのは概して「平均的」なものであるため, こうした自動作曲システムが出力するものががユーザの求めるものである保証は全くない. そしてユーザが生成結果に納得できなかった場合, これを修正するためには結局, 専門的な音楽知識が必要となってしまう. 本稿での提案は, 音楽初学者が専門的な知識なしに自動作曲システムと対話を行い, 対話を通じて「本当に求める音楽」に到達していくことを目指している. 着目したのは「緊張感の変化」である. 音楽初学者であってものこのパラメータの入力は比較的容易であり, かつシステム側からはこのパラメータからユーザの意図を推定しやすいことが, 本研究から明らかになった. そして, 最終的な評価実験の結果, 緊張感の変化を入力とするインタラクションが, 最終的に初学者の満足度を向上させることも示した.

概要動画

ポスター

システムへのリンク

http://27.83.54.254/PsychoacousticAutomaticHarmonizer/PsychoacosticHarmonizerUI_Improve/

論文

https://research.miyashita.com/papers/D229