>>426のつづき
マルチマイクで各楽器をピックアップする方法とアレンジは
戦前のハリウッド映画の頃から見受けられますが
この頃はダイナミックレンジの制約でそうしていました。
またはジャズやカリブ音楽にみられるパーソネルというソロの受け渡しが
自然にポピュラー音楽の収録に影響を与えていたのかもしれません。
いずれにせよクラシックに比べ、音盤に載りやすく判りやすい音造りです。
戦前でユニークなのが、オペラ歌手カルーソーの再録音で
実は以前に収録した音盤をラッパ再生し、管弦楽で伴奏したと云います。
これは当時の録音が生音拡声を基本にしていたことの照査でもあります。
こうした生音の拡声というスタンスは、ライブ会場でマイクの音をそのまま集音するという
1950年代のジャズの録音方法に繋がるものでもあります。
これを改めてサウンド・ステージに置き換えたECMの録音などは物議を醸しました。
ここで改めて2chでミックスされた音響について通観する必要があります。
ひとつは演奏家の表現を仔細に観察するために
もうひとつは音楽のスタイルを把握するために、録音のカラクリを暴く必要性です。
モニターの目的は、演奏評価の主体性の内にもあるのだと思います。
>>425 昔より音が悪くなったかどうかは主観の問題だが、そう思う人が多いのは、音楽業界のデジタル化によるものだ。
そこのところはここでは詳しく述べないが、
その他の理由として、時代とともに民生機が小型化していくことで、(ホームステレオーラジカセーipod)
ある意味マーケット自体がハイファイを求めなくなったということも重要な原因だ。
さらに、アメリカ的な「マーケティング」という概念が音楽業界に浸透したことで、
プロダクションの最終的な音質は昔よりさらに合理的に決定されるようになった。
もちろんこれは一般論なのですべてのプロダクションがそうとは言わないが、
音楽の最終的な音は、常にマーケットによって最終決定されていうということは、忘れてはならない。
たとえば、レゲエのプロダクションはレゲエのマーケットであるサウンドシステムや非常に廉価なシステムによって
決定されてきたし、生演奏でも、オーケストラの音質は、演奏されるホール(演奏会)というマーケットによって決定されてきた。
オーケストラの音を、レゲエのサウンドシステムのあわせて決定した天才は、俺の知る限りいない。w
だから、ここでミックス用のニアフィールドモニターに関して限定していえば、
現在のモニターというのは高音質であることが最良ではなく、そこで聴かれる音質がその商品が聴かれるマーケットである、
ラジオやカーステやラジカセで聴いても同じバランスで鳴ることのほうが重要なわけで、
そういった条件にはまったモニターが最良ということになる。当然、あるレベル以上の分解能も必要だが。
今の主流であるGenelecを聴いた人はわかると思うが、高域も低域も非常に人工的で、中域は手前に張り出している。
もっと自然な音質でかつ分解能も高いSPもあるのになぜ?と思う人もいるだろうが、
実際には、Genelecのほうがラジカセなどの人工的なバランスに近いため、作業しやすいという人間が多いために、
市場を席巻してしまった。逆にこういうモニターで作業されたプロダクションに自然な音を期待するのは筋違いなわけだ。
こういった意味では、1氏が言っているように、モニターを聴けばその時代の音楽背景(つまりマーケット)がわかる、
というのは一理ある。