先生!ついて行くの大変…音楽とAI-大学公開講座
というワケで大学公開講座の2回目に行ってきましたが…
まず率直な感想から…
音楽や音
後、パソコンで作曲をした事がある人じゃないと
なかなか難しいのではないか?と思うような基礎知識がバンバン出てきて
早口で展開される説明に「どのくらいの人がついて来れたのだろう…」
と思いました(^^;
会場は、前回と違い
高校の制服姿の人や
大学生くらいの年齢の人が結構いました
音楽系の学校の学生さんもいるのかな?と思いました
なんとなくですが…
音楽とAIという事で、ボカロの話を期待して来た子達もいるんじゃないかな?
そんな気がしました
かく言う私も
ボカロの話や作曲の話だと思って参加しました
ところが実際のお話は
自動採譜のお話でした
曲をAIに聞かせて正しい楽譜にできるか、というお話でした
1時間半という短い時間で
デモ曲も流しながら
難しい事を説明するので
時間が足りない(^^;なので先生も焦っていらっしゃる様子でした(^^;
私は小さい頃音楽を習っていて
パソコンで作曲経験もあるので
なんとかついて行けましたが
それでも先生の言葉を取りこぼさない様に
集中しているうちに、一瞬トリップしたりして
結構大変でした(^^;
ピアノロール、セブンス、ゆらぎ、声紋、ハイハット…
などの言葉が次々と出てきます(^^;
そして実際のデモ曲と
AIに自動採譜させた楽譜や音の
聴き比べ、見比べなどもたくさん出てきました(^^;
あ、そうそう
よくTVの未解決事件の番組などで出てくる「声紋」ですが
(Aの声と、Bの声の周波数に一致している所があるので同じ人の声だ
というやつです)
あれは専門家から言うと無いんだそうです!
科学的なものだと思っていたのでビックリしました!
さあ、そろそろ本題に入りましょう…
自動採譜
人間で言うと、曲を耳コピして楽譜に直す
それだけ言うと簡単にできそうな気がします
けれど、音楽と言うのは
楽譜通りにきちっと弾くと童謡のように単純になってしまうんですね
人を感動させる音楽と言うのは
楽譜通りきちっと弾いたものではなく
わざとリズムを少し狂わせたり
聴こえるか聴こえないかの音で弾いたりと
演奏する人がいろんな表情付けを行っています
けれどAIはそれを認識できず
すべてそのまま楽譜に起こしてしまいます
すると、少しでも拍がずれていたら
AIは拍をずらして楽譜を書きます
そうすると楽譜としてはめちゃくちゃになり、成り立たなくなります
それでも単純なパターン化された曲なら
7~8割は自動採譜できるようになったそうです
けれど完全な「耳コピ」は無理なので
カラオケを作る仕事は
今でも人が1から耳コピして長い時間をかけてしているそうです
人間が音楽を聴く力というのはすごいんだなあ…
と思った講座でした\( 'ω')/