pleroma.tenjuu.net

そういえば今日ピアノの自動演奏が電子音楽みたいに聞こえるみたいな話聞いて、ホロヴィッツの演奏について分析した記事がおもしろかったの思い出した。

この記事の書き手は、ホロヴィッツは「どうしても3本の手で演奏しているように聞こえる」んだけど、それにはホロヴィッツの企んだトリックがあり、という記事。これ読んだとき、音楽という構造物を見るように聞くのではなく、ちゃんとした聞き手は演奏者の身体を想起して聞いているんだとおもった(自分にはそもそもホロヴィッツの演奏から「腕が三本ある!」までいかない)。機械に演奏させるとき、たぶんこの「内面化された他人の身体」のあるなしというのは、聴くという経験にとってけっこう重要なんだろうなとおもった。

https://cremona-luke.com/20220804music/

この記事読んだときの感想

自分が聴いたくらいでは「ピアノだけど複雑な響きしているなぁ」くらいの雑な印象しかもてないけど、記事の書き手は「どうしても3本の手で演奏しているように聞こえる」と書いている。「これ演奏できなそうだな」というのが、脳内で音楽のモデルみたいなものが構築できないとかそういうことなんじゃなくて、脳内に音楽のモデルはできているんだけど、それを身体動作に変換したときにどうやっても実現できなさがあっておかしい、みたいなのが「3本の手で演奏している」という感想なんだろうなという気がする。 https://mstdn.jp/@tenjuu99/109710866382694911

この記事の書き手が「でも、この演奏はホロビッツの強い意志により楽譜にはなっていない。(最近はAIによって解析された演奏不可能な楽譜が出たみたいで、見てみたけど失笑するしかなかった)」と書いているのもおもしろい。
これ、AIは音楽というオブジェクトをモデル化することはできても、それがどのような身体動作によって作られるかということまで考えていないんですよね、たぶん。今日の話ではないけど、譜面が人間の身体動作にたいして与えられる指示であるのに対して、コンピュータ上でおこなわれる「音」はすでに身体動作を伴わないから、機械は譜面を直接音に変換してしまう(音を直接譜面に変換してしまう)。それが「失笑するしかなかった」理由なんだろう。
replies
0
announces
0
likes
0