April 26, 2009

第58回サラウンド塾 東大寺世界自然遺産登録10周年記念野外コンサートのサラウンド制作 野尻修平、山本雅之

By. Mick Sawaguchi
2009年4月26日 三鷹沢口スタジオにて
テーマ:東大寺世界遺産登録10周年記念・平城遷都1300年記念 布袋寅泰SPECIAL LIVEのサラウンド制作
講師:野尻修平、山本雅之(株式会社エス・シー・アライアンス)

沢口:2009年4月のサラウンド寺子屋は、奈良東大寺で2008年10月18日に開催されました、世界自然遺産登録10周年を記念した布袋寅泰SPECIAL LIVE野外コンサートのサラウンド制作です。サラウンドの作曲家として若手の野尻さんがこうして実績を積み重ねていることは我々にとっても大変心強いことです。本日は、音楽的な部分を野尻さんに、コンサート会場でのサラウンド・システム構築部分をSCアライアンスの山本さんにお願いします。

野尻:寺子屋はしばらくぶりで、今回初講師でちょっと緊張しております。よろしくお願いします。今回のイベントは、東大寺世界遺産登録10周年記念・平城遷都1300年記念イベントとして布袋さんにコンサートの依頼があり実現しました。布袋さんは東大寺でコンサートをされるのは14年ぶりとの事で、その時に海外のアーティストと一緒に共演されたのがキッカケで海外でも活躍されるようになったと伺っています。『キル・ビル』など映画のテーマ曲も担当されていますね。このコンサートにはオペラ歌手の中丸三千繪さん、舞踊家のH・アール・カオスさん、和太鼓のレナード衛藤さん、CGアーティストの河口洋一郎さんといった多彩なゲストが参加されており、非常にたくさんの演出が盛り込まれていて、その中のひとつにサラウンドがあります。

■どのようなサラウンド空間を構築するか?

布袋さんのイメージは、自然環境音という事でしたので、ステージにあるものはステージでガチッと固めていただき、全体の雰囲気や、その広がりを環境音でサラウンド効果が出せないかを検討しました。
東大寺の記憶が修学旅行以来でしたので不安だったのですが、最初に布袋さんや音響スタッフの皆さんと会場の下見に行って、ここならやりやすいなと思いました(以前鳳来寺山という山の中でコンサートを経験していたのが役に立ちました)コンサート会場は大仏殿(金堂)の中に大仏様がいて、この大仏様の前にステージを組む形でした。客席はステージが見える場所のみなので、金堂前の八角灯籠、手水舎といった視界を遮るもの以外の、主に芝生の中に椅子を設置して作っていました。この大仏殿前は構造的には四方が回廊になっていて囲まれています。ステージが金堂前にあって、手水舎の横にPAミキサーやサラウンド、照明などの機器が設置され、そこでオペレートをすることになっていました。下見では機材などを手配して下さるヒビノサウンドDivさんと相談してスピーカープランを当初の4chから変更しました。会場を見ると結構ここは広いんですね。縦が約80m、横が約120mくらいあるので中抜けをしてしまうと思い、サラウンドだけで8chのシステムにしてもらいました。下見の中でポイントとしてあったのは、20時丁度に国宝の梵鐘を鳴らすとのことで、それを効果音として入れられないかという案の確認です。梵鐘の位置も確認したんですけど結構遠くて、恐らくコンサートをやっていたら、その音は聴こえないだろうということで残念ながら却下になりました。

バンドの演奏に合わせてどういうサラウンドを構成するかについてですが、布袋さんの音楽には、すごくリズムがタイトでグルーブ感やスピード感のあるイメージが私にありましたので、アンサンブルに影響するような楽器をばら撒くって案はなかったです。当初より自然環境音をサラウンドで構成するというコンセプトでスタートしていますし。その後、都内のスタジオで打ち合わせをしました。以前、SCアライアンスさんとのお仕事で8chサラウンドのプラネタリウムの音楽を担当しましたが、そのナレーターは何かのご縁なのか、今井美樹さんでしたね(一同笑い)今回も8chサラウンドの作品でしたので、スタジオの手配をSCアライアンスの山本さんに相談して、布袋さんには私や冨田勲先生の作品を参考までに聴いていただきました。
最初の打ち合わせで音を聴いていただいて、考えて行く上で、やはりサラウンドっていうのは音楽性に影響するというか人が聴く心理に深く入っていくものなので、布袋さんがステージで演奏される音楽がどういう世界を創ろうとされているのか共有したいとお願いしました。例えばコンサートに物語・ドラマ性を創ってしまうってことが一番やりやすいので最初に提案したのは、曼荼羅をテーマにして宇宙に展開するようなイメージです。

そして
第1幕「時空の扉の封印が解け魂が太古の昔へ」というシーンで、楽園の世界です。
第2幕は「夢幻の世界を浮遊する魂」で少しダークな世界に入って行き、やがて悪魔が出てくるシーン、そこで魂が浮遊して、
第3幕の「宇宙へ」と展開するという全3幕の大きな流れを創っていただきました。

私はこの各シーンの情景をイメージにしてサラウンドの効果音を創っていきました。ステージはステージで音を固めていただき、サラウンドはサラウンドでステージの世界により入り込める音場空間を創るというような関係です。PAもオペレーションもステージとサラウンドでは完全に別ラインでやっています。この時点からサンプル音を創り始めています。

■サラウンド制作と自宅スタジオ

サラウンド制作は、自宅スタジオで行ないました。寺子屋メンバーの石井さん(オタリテック)に、「良いサラウンド・スピーカーを教えてください」と。「Genelec SE DSP」というDSPの入ったモデルをご紹介いただき、導入しました。そのシステムでサラウンド効果音用に4chのスピーカーを組んで、「8240A」っていうこれもDSPが入ったモデルがあり、これはステレオで布袋さんのバンドサウンドをモニターしました。この時点では布袋さんからはリストで、各シーンで演奏する候補曲をいただいているんで、それに合うSEだったり、シーケンスを制作し、まずはアイデアや実際のサンプルを聴いていただきました。
このままサラウンド効果音とステージの演奏は独立していても良かったのですが、せっかくのサラウンドですからお客さんがハッとする見せ場がほしいと思い、布袋さんのギターをグルグル回すというアイデアを提案しました。布袋さんのギターが東大寺を駆け抜ける!これはファンの皆さんも絶対期待されていると思いましたしね。しかし今回のような規格外の8chの配置でサラウンド・パンニングをする装置っていうのは実はあまりないんです。調べたところ、「LCS」というこれも山本さんのSCアライアンスが取り扱う機器がありまして、これはテーマパークやラスベガスなどのショーで実際に使われている非常に実績のあるもので、今回の東大寺のサラウンド・チームに入っていただくことをお願いしました。この部分については山本さんからご説明をお願いします。

■サラウンド用機材LCSについて

山本:この「LCS」とは読んで字の如く、「Level Control Systems」というものです。これは何かというと、単純にDSPのマトリックス・ミキシング・エンジンです。心臓部と、その裏側にモジュール式でインプット/アウトプットを好きにレイアウトして、さらにこの本体を何台もカスケードすることによって最大32台で400オーディオ入力、512オーディオ出力という大規模なデジタル・マトリクスミキサーシステムを構築することができます。先ほど野尻さんからも出ましたテーマパークですとかラスベガスなどのショーのスピーカーというのは何百発も使っているんですね。そういうものを制御したり、あとは大きなイベントですね。例えばオリンピックなど。1998年に日本でも長野オリンピックがあったんですが、弊社でLCSを大規模に使った初めての仕事だったと思います。このようにLCSは、スピーカーの数がすごく多いところで様々な制御をするということに非常に優れている機器です。ハードウェアとソフトウェア、そしてそれをコントロールするインターフェイスで成立しています。

今回特に『SpaceMap』というソフトウェアを使って布袋さんのギターをグルグル回そうと考えました。これを使うと、スピーカーを好きなポイントにレイアウトしてそれを関連付けて行くことによって、この中をグルグルといわゆるカーソルを用いてこうやって線を引くとそのとおりの音像移動ができます。スピーカーのレイアウトとその関連付けのやり方によってはかなりリアルに音像を移動することができるシステムです。これは最大512までのスピーカーをプロットすることもできますし、実際画面に会場の図面の写真などを貼って本当のスピーカー位置をプロットしながらもできます。実際にこれが当日使ってた画面です。ここは正方形なんですけど赤い線の先がスピーカーでこのように8個スピーカーをレイアウトしてこのように関連付けてあげることによってマウスの操作で音がそのとおりに移動します。今回は生一発本番なので、マウスの操作だとちょっと心許ないなっていうこともありまして弊社の技術者がつくった手製のパンナーを使って先ほどの『SpaceMap』上をグルグルっと移動させました。

この写真が実際に使っていたシステムで、Macのノートと、簡単なロケーターです。いろんなシーンを作ったり切り替えたり、曲やシーンに応じてスピーカーを使い分けるなど色々な切り替えをするのに使ったりとか、あとは実際のレベルをこれでコントロールしました。
野尻さんの8ch音源をこの「LCSシステム」に入力し、そのアウトを「DM2000」に送っています。その「DM2000」の送りを真ん中のインターフェイスでコントロールしました。私の担当は、野尻さんから受け取った音源のレベルコントロールと、バックアップとしてアナログの出力をそのまま「DM2000」に挿してあったので万が一の時の切り替えと、ギターの部分のパンニングということです。一発本番なので布袋さんにお聴かせするためにリハーサルの段階からやったものを録音して聴いてもらいました。実際パンニングをしていてもこのPAブースが会場の隅にあり、自分では殆どちゃんと聴けない場所だったのでリハーサルの時に録音したものを再生しながらお客さんのいるエリアで聴いてみて確認しました。本番では自分の勘を頼りにするしかないんですけどそういう方法でパンニングしました。
特に気を付けた点は、布袋さんのギターのリズムやフレーズに合わせたパンニングと、それからお客さんに驚きをもってもらえるようなパンニングを心掛けたつもりです。今後恐らくBlu-rayが発売される予定ですので、実際聴いてみていただけるといいかなと思います。

Q. パンナーのアウトというのは何本までコントロールできますか?
A. この時はPA用のメインの2も含めてサラウンド・スピーカーの8プラス2で10本分でコントロールしましたが、システム的には幾らでもアウトの数だけコントロールできます。先ほどは512までと言いましたが実際にそれもできます。

Q. 先ほど関連付けると言われていたのはスピーカーの位置だったり指向性などを打ち込むという感覚ですか?
A. どこを(エリアの)中心にするかというポイントを決めて、そこから線を引っ張って行くというか三角関数みたいなものを使って、『SpaceMap』はレベル情報を計算するんですね。また、バーチャルスピーカーという概念があって、実際にはスピーカーがない位置にスピーカーがあるかの様に関連付けて行くことも可能です。また、普通のパンナーでは出来ないことですが、スピーカーエリアの外側にサイレントというポイントをプロットし関連付けると、スピーカーエリアから出て行くにつれ音が消えていき、そのサイレントというポイントになると音がゼロになるということもできる。こういったことが普通のパンナーとは大きく違うところで、音源がどんどん遠く行くと、それにそって定位と音量感も下がって行くとそういうことができます。このプロットの数はアウトの数の分だけ幾らでもできると。その辺がこの「LCS」の最大の利点ではないかなと思います。ただ、PAブースの場所ではRの音がそのまま聴こえてくるだけでそこでパンナーをいじっても自分でも遠くから音がしてるなぁくらいしか分からないので、一度録音したものを色々なところで聴いたりということをしました。

Q. 「LCS」はレベルのコントロールと時間差もコントロールしているのですか?
A. 基本的にはレベルのコントロールのみです。もちろんディレイなどを付けることもできるんですけど、『SpaceMap』に関して言うと時間差などは考慮してないです。音量差ですべてコントロールしています。ディレイを組むことも可能ですが今回はしていません。それからもうひとつ今回「LCS」を使う利点としては、リヴァーブシステムを持っていることですね。これは普通のリヴァーブではなくて基本的な機能としては残響付加装置VRAS(Variable Room Acoustics System)というものです。これは何かというと名前のとおりデッドな部屋にマイクとスピーカーをたくさん置いてそこに自然な響きを与えるとそういうシステムです。例えばラスベガスのシアターなどでは何百チャンネルも入っていたりとか、アメリカの教会とかそういうところにもかなり入っているらしいです。今回はそれをリヴァーブとして使おうかなということでトライはしてみました。

Q. サイレントのポイントをスピーカーの奥に持っていった場合、ジョイスティックを外周で回した時はサイレントポイントをずっと回ってる形になってしまうんですか?
A. 今回はライヴだったので音が消えると困るのでそれは使ってないです。レベルが下がった状態で音が回ると、音が回ることに変わりはないんですけど、もっと深くポイントを設定してあげるとうまくレベル差っていうのができると思います。

Q. では外周で回ると遠めになるってことですか?
A. そういうこともできます。

Q. 音質はいじっているのですか?
A. 基本的にはレベルだけです。

Q. 「LCS」はリスニングポイントが基本的にひとつに仮想されてると思うんですが、そのライヴのあれだけ広くお客さんがいる中でセンターのスイートスポットとそれ以外の聴こえ方の違いはどうでしたか?
A. 「LCS」にポイントはひとつしか置けませんがいろいろなところでチェックはしました。サラウンドをする上ではいつもポイントになると思うんですけど、基本的にはスイートスポットも考えつつ他の場所でもチェックしますが、すべてを満足させるのはなかなか難しいです。それはパンニングでコントロールするしかないかなと。できるだけ極端にはしたいんですけれど、その辺を細かくパンナーで操作するしかないんですけど基本はやっぱり真ん中あたり。しかし今回は真ん中にお客さんがいないのが結構辛いっていうのはありました。

■制作デモ

野尻:ではこのパンニングしたギターのシーンを聴いてください。このギターはリハーサル用のものでSEは本番と同じものです。ロングトーンでギターがキュイーンって鳴っているんですけど、ステージのメインLRはMSI Japanの村田さんが担当されていて、ギターはメインLRからサラウンドに飛び出すことになります。サラウンド側は私たちが担当していましたので、ステージとサラウンドでの受け渡しが必要になります。当初は8chだけでギターを回そうと思ってたんですけど、メインLRが抜けちゃうと、どうしてもつながりがよくないので、村田さんにご協力をお願いしました。今日のデモは4chクワッドで再生しています。

-デモ-

山本:PAの村田さんとアイコンタクトしながら、初め向こうは絞って行って渡してもらって、最後はまた向こうに渡すということをしました。
野尻:この魔物の声のSEは曲のイントロから引いていて、その上に布袋さんがアドリブで演奏をされます。ロングトーンをキッカケに、ベースがリズムを刻み始めたらバンドの演奏が始まるので、サラウンドは下げていきます。
山本:今回こういったライヴでやってみて楽しかったのは、お客さんのウォーッという反応がリアルタイムにあった時、よっしゃーみたいな、結構楽しかったですね(一同笑い)自分で音の感じは分からないのですが。
野尻:SEのサラウンドミックスは「Nuendo」でやっています。「Nuendo」のパンナーで8chを組むとこういったレイアウトになります。今回のスピーカー配置のような真後ろに2chを置くレイアウトはないので仮想的にセンターを後ろにあるものだと自分の頭の中で置き換えています。この真ん中にあるパンナー図は真後ろにある2chから出ているという事です。
ミックスは8ch全てのスピーカーを同時に使って音場構成をする場合と、例えばこの左側のようにRF、RCのステレオペアで特定のエリアに対してミックスするという2つの形をとっています。サラウンド用のスピーカーがどれくらいのサイズで出力が充分なものかどうか、詳細が決まるまで時間がありましたし、現場で修正が可能なように柔軟性のあるミックスを心がけています。実際、現場で音を出してみると東大寺はかなり音の響きがよくて、驚いたくらいです。やっぱりお寺っていうのは音響的にある程度考慮しているのか、ちょっと鳥肌ものでした。心配していたスピーカーの出力も充分で、ひとつの音場空間が創れました。8chアウトとステレオペアでやっているもの全て「Nuendo」内でコントロールして行くという感じです。制作過程の続きですが、打ち合わせで布袋さんに音を聴いていただいてからはサンプルの確認をメールなどで数回繰り返しています。今回のステージは、たくさんのゲストがいらっしゃるので、バンドアレンジはスタジオリハーサルが始まらないと分かりませんでした。ですので、スタジオリハーサルに、「Nuendo」一式を持って行き、そこに小さいスピーカー8chを置いてもらって、バンドアレンジや進行が固まっていくと同時に、サラウンドも応じて制作や修正する作業を5日間ぐらい行ない、最終的な音を固めました。

■今回の再生システム系統

野尻:コンサートの中では中丸三千繪さんの独唱があるので、そういったところでさっきの山本さんがお話したVRASというリヴァーブが使えないか検討していました。ただ、会場で音を出してみなければ効果も分からないので、その可能性をとっておく上でも「LCS」にヴォーカルとシンセサイザー、和太鼓の音を送るようにしておきました。結果として使いませんでしたが、ベストな選択ができたと思います。スタジオリハーサルではH・アール・カオスさんの舞踊が始まる前に即興的な演奏があったり、衣裳替えがあったり、様々な転換の場面の詳細も決まり、サラウンドの役割もその都度考えられて進みました。再生システムは、バンドでシンセサイザー演奏とプログラミングを担当されている岸さんからLTCのタイムコードを受け取っています。このバンドのシーケンサーにサラウンド・チームの「Nuendo」がスレーブするという形です。岸さんからタイムコードが来て、こちらで分岐してA、Bの2台の「Nuendo」が走っています。ただ、Aのメイン機にしか「LCS」が入っていないので、リアルタイムのパンはAに行かないとできないんですが。Bは完全に仕込んだ音でコンピューターがトラブって止まってしまったら、生かすバックアップ機の役割になっています。
A、Bは「DM2000」でパッチングしておいてボタンひとつで切り替えられる形をとっています。布袋さんの曲はシンセサイザーが入っているのでサラウンドのやりどころもあったんですね。バンドのシーケンサーにサラウンド側は追従するので、いつどこに何が来ても対応はできるようにはしていました。こうなると色々とやりたくなるのですが、なかなかそれも難しいというか、コンサート全体の構成や演出、流れに沿わないものは布袋さんが判断されています。同期については、MCのキーワードをきっかけにする場合のほか、サラウンドから始まるものはステージ側からインカムでキューをもらっています。バンドの演奏と完全に同調して出す場合はLTCでタイムコード同期をとっています。
-デモ-

■機材の準備とリハーサル

野尻:16日はスタジオリハーサルが終わって搬入、セッティングになるんですけれど、音響仕込みは、東大寺は世界遺産なのでたくさんのお客様がいらっしゃる。昼間は常に空けて、基本的に作業は17時から21時とか22時くらいまでと色々な制限がありました。私たちは出番が少ないので心配は無かったんですが、ステージ上の舞台を組んでる人たちはとても大変だったと思います。傷つけちゃったりすると問題だったりとか。サラウンド・チームは、17時から入って1時間程度で音のチューニングをしています。この時にはテストトーンを出してレベルバランスや音質を揃えたり、軽く音を出して低音が出過ぎなら低音を切るとか、そういう確認だけです。時間がなければ「Nuendo」側で調整してしまいます。この日はラインチェックがメインになりました。スピーカーは、ステージのメインが「JBL VT4889」×8のシステムです、これが2セットです。サラウンド・スピーカーは、「d&b audiotechnik J8×3とJ-Sub」がクワッドの配置でフロントのLRとリアのLRにあって、その間を埋めてるサイドのセンターとセンターバックの2発は小さい方の「JBL VRX932」×3でやっています。RR側はステージが見えにくい場所で、客席がないので、派手な音とかこのエリアになるべく突っ込んでいます(一同笑い)。

Q.バランス的にはどんな感じですか? 均等バランスですか?
A. クワッドの音をメインにしてます。中抜け防止のためにセンターを、という感じです。

山本:結構、現場で定位とかの修正はしていましたよね。
野尻:そうですね、客入れBGMなどは音量が小さく再生されますので、8chで音場空間を創ることができません。お客さんから一番近い2〜3個のスピーカーで、その特定エリアの音場を創るようにしています。スピーカーの高さはもう少し高いほうが良かったのですが、それでも高さは1.2mくらいはあったと思います。

Q. サブ的に使われているLC・RCとLB・RBの4つが同じくらいの高さですか?
A. はい。全て同じです。

野尻:この写真が当日のセットアップです。左側の2台が「Nuendo」で手前がメイン機、奥がバックアップです。一番手前は先ほどご紹介した「LCSシステム」です。「DM2000」にすべての回線がまとまっていて、この「DM2000」から直にサラウンド・スピーカーに行っているという形です。ステージのLRは、別のコンソールを使っていて、そこは村田さんが担当されるという形で機材のセットも分けられています。

Q. 自分の機材は何を持ち込まれましたか?
野尻:「DM2000」以外です。
山本:「LCS」は弊社が持ち込みました。
野尻:「Nuendo」周りは私ですね。一番上はタイムコードリーダー・ジェネレーターです。「Fostex4010」という古いものです。その下は「RME Fireface800」で1台につき8chアウトのオーディオ・インターフェイスです。「LCS」がデジタル受けなので「Fireface800」の出力を「RME ADI-192DD」でDDコンバートして「LCS」にAES/EBUで入れています。それからMac用の「Fireface800」がもうひとつありこちらはアナログで使用しています。

Q. 「192DD」で何をコンバーターしているのですか?
野尻:ADATからAES/EBUにコンバートしています。

Q:「LCS」はAESのデジタルで受けないといけないということですね?
A:アナログのボードもあるのですが、他との兼ね合いで「Nuendo」の音源はAESで受けました。もう一方がアナログで直接(Fireface800から)「DM2000」に。2系統ですね、メインとサブと。

Q. 直接というのは8chアウトが直接ということですか?
A. そうです。「DM2000」からはサラウンド・スピーカーに行きます。アウトに関してはさらに収録があったので、8chのSEをTAMCOさんに送りました。後は「Digidesign VENUE」というPA用のコンソールにも2ミックスを送りました。『SpaceMap』でパンニングしたギターの部分だけも直接その10ch分をTAMCOさんに送っています。これは後々Blu-rayで出るというのがあるので、音源として現場でリアルタイムでパンニングした素材もパラでTAMCOさんに送っています。

Q. 回線図のPA卓から戻されて入力されているのは何ですか?
A. PA卓からシンセサイザーや和太鼓、ギター、そしてヴォーカルというのもこちらでもらっていまして「LCS」でそれをまたPAにしようというのもあったのですが実際には使いませんでした。それぞれの素材をパラでもらっていました。

Q. PAとのやり取りもAES/EBUで行ないましたか?
A. これはアナログですね。システム的にはこういう感じです。PAはPA卓でそのままメインで直接出してました。

Q. 回線図のLTCから先のものの役割を説明して頂けますか?
A. プログラマーからLTCが来て野尻さんのシステムで受けています。「Fostex 4010」です。でそれをMTCに変換してます。「MOTU MTP AV」というMIDIインターフェイスです。それでそれぞれMTCを2つの「Nuendo」のシステムに入れているということですね。この「LCS」の方にもタイムコードは送っていました。

Q. 「LCS」にタイムコードを入れているということはこれもオートメーションで動くのですか?
A. はい、いざという時のために入れています。

Q. 「Fostex4010」のその他の役割は?
A. タイムコードのリジェネですね。落ちても最初で受ければ自走するというものです。ステージ側から50m以上引いているのでそのラインが切れた場合でもバックアップできるようにです。

Q. 映像とのリンクも全部含めてプログラマーからのLTCだけで映像も含まれているのですか?
A. 映像は別だと思います。叩き出しだと思います。

Q. どちらもパソコンですが、フリーズする心配はどうでしたか?
A. 2台同時にという可能性は心配していませんでした。時期が10月だということで涼しく、コンピューターにはやさしい環境でしたね。A機がメインでB機がバックアップだったのですが、同期信号は「Fostex4010」1台で受けています。

Q. 電源周りはどうでしたか。PCごとに違う系統をとりましたか?
A. はい、とってます。

Q. リハーサルで動かして止まったことはありましたか?
A. 一度もなかったです。

Q. PA用のコンソールは?
A. 写真では一番奥に見える「Digidesign Venue」です。

Q. サラウンド・チームのエリアは手前ですね。
A. そうです。コンパクトですね。
野尻:翌日17日はリハーサルでした。布袋さんやバンドメンバーにサラウンドの音を聴いてもらいましたが、非常に喜んで下さったので一安心でした。

■本番当日

客入れBGMは効果音なんですけれど、いわゆるお客さんが入る30分間でアンビエント系のキラキラした音を流していて欲しいという要望をいただきました。コンサートは客入れBGMがあって、そのあとお坊さんが声明を唱えられ、バンドのステージが始まるという進行です。効果音の客入れBGMは30分間と長尺で、大きい音も出せないですし、メロディーを使ってしまうと先入観やイメージが付いてしまうので、鈴の音や自然音、シンセパッドを主体にしました。これは、かなり低いレベルで全体から鳴っているという感じです。大きな鈴の音は、1個1個のスピーカーを順番に鳴らしています。お客さんが入って、ザワザワしながら後ろでほのかに鳴っているという感じですね。19時開演前の2分くらいは少し厚くして、もう始まりますよという構成にしています。ただ、場合によっては10分押しにもなるので、そうなると尺が変わってしまいます。これはインカムで開演2分前ですという合図をもらったら、予め2分で終わるシーケンスを仕込んでおいたバックアップ機の「Nuendo」にクロスフェードさせる形で対応しました。その後、声明が入ります。これは本番の音ではないのですけれど、東大寺では定期的にコンサートをされていて、こういう形でコンサートが始まります。声明は15分くらいなんですけど、客入れBGMの開演合図で最後を大きく盛り上げちゃったのでお客さん総立ちで(一同笑い)。ちょっと申し訳ない気持ちでした。

Q. 客入れBGMの素材はどんなのを使ったんですか? 全部打ち込みですか?
A. 打ち込み主体で、鈴や風鈴の音が生です。
野尻:開演の1曲目を終えた後、布袋さんが挨拶をされます。このMCでは、「東大寺」というキーワードをきっかけに環境音をサラウンドで流しており、そのまま次の曲が始まるという展開です。これは本番のライブの音です。途中からになっちゃいますけど。この鳥の声はサラウンドで後ろから鳴ってます。これはオリジナルの作品にもこの鳥の声が入っているので、そのものを使っています。違うものが入るとイメージが変わるとの事でオリジナルの素材を使いました。
山本:このセッションは、現場で使ったセッションではなくて、ミックスされたセッションなんですね。
野尻:そうです。現場では、鳥の声や水の音など素材がバラバラになっていて、その場でフェーダー操作しています。最初のシーンはお聴きいただいたような「自然の楽園」というイメージがあって、次に、「Devil's Sugar」という曲でさきほどギターのサラウンドパンがあります。魔物や悪魔が出てきてダークな世界になると、やがて「浮遊する魂」というシーンへとつながります。その浮遊する魂の音源がどんなものなのかをちょっと聴いて下さい。手法としては、さっきの魔物のシーンと同様で、ギターも動かせたんですけど、H・アール・カオスさんがステージで踊られる場面なのでお客さんの気が散らないよう前から出しました。後半の宇宙のシーンでは、曲中でシンセのスウィープトーンが後ろから前にフワーっと広がるだけの箇所があるのですが、たったこれだけでも結構効果があるんですよね。

Q. これもタイムコードで?
A. はい、そうです。

Q. タイムコードは曲ごとですか?
A. バンドのシーケンスでは曲ごとだと思います。

Q. イベント1個ではなくて?
A. 「Nuendo」のプロジェクトでは1つです。1時間単位で分けています。
野尻 この「浮遊する魂」の次は終幕の「宇宙へ」となります。クライマックスに向けて命をテーマにしたドラマチックな展開です。「Save Me」という曲が先ほど話したスウィープトーンが後ろから前にフワーっと広がる効果で、サラウンドでアクセントをつけています。アンコールではサラウンドは出していません。最後にカーテンコールがあるのですが、ここでは私のサラウンド作品『交響詩《ローマ三部作》Ottorino Respighi』からクラシックの曲を流しています。割とシックな感じです。これでエンディングを終えましたという感じが出て、アナウンスも入りつつお客さんが立ち始めます。これは5.1ch作品になっているんですけど、後方の真ん中にある2chをセンターにしていわゆるステージとは反対向きにした場合の5.1 chで配置しています。その後で再度、最初の客入れBGMを再生し、コンサート前と同じ荘厳な東大寺の現実の雰囲気に変えていき、お客さんがいなくなったら完全にレベルを下げるという流れでコンサートを終えました。私が今回のコンサートで担当したサラウンド制作のご報告は以上です。

■コンサートを終えて

まとめということですが、ロックコンサートのサラウンドは予想以上に効果がありました。サラウンドを聴いたことがない人でも、会場の雰囲気やアーティストの世界観を支える音であれば自然に聴くことができます。前面のステージの音に集中できてなおかつシーンが変わるところではサラウンドがガラリと雰囲気が変えるよう、演出効果的に共存できたのは、すごく良かったのではないかと思います。ポイントを押さえれば、楽器が飛び出すような「見せ場」を作るのも大変効果的だと思います。あと、バンドのステージのPAは独立して従来通りに固まっていて、サラウンドはサラウンド・チームでそれに合わせて音を出して行く。こういった形でオペレーターが独立していて、一緒に何かをやる場合はそこで歩み寄る形は非常に良い結果だったのかなあと思います。例え、効果音だったとしてもアーティスト本人の世界というか、どこでどういう空間が欲しいのかといった明確なコンセプトが大切になりますね。布袋さんはプロデューサーとしてもすごく才能がある素晴らしい方なので、どこで何が欲しいとか、余計なものはいりませんと明確な考えがお持ちでした。なので、ポイントポイントを押さえて、全てがうまくはまったというか、ゲストのレナードさん、カオスさん、中丸さん、それぞれに強い個性と存在感をお持ちで、さらに照明も、CGもあって本当に盛りだくさんなんですね。布袋さんはそれらをまとめられ、ひとつの音宇宙を創られたのはスゴいと思います。今回、私はサラウンドを担うことで東大寺をひとつの船のようにイメージしました。「回帰(楽園)」「夢幻」「宇宙」というシーンの冒頭ではサラウンドSEが照明やCGと共に情景を創ります。その情景は東大寺という荘厳な会場そのものがステージでの音楽と一体化して、まるで旅をするかのような、そんな気持ちになりました。こういった新しい形のコンサートはすごく可能性があるのではないかと、お客さんの反応を見てても非常に楽しんでもらえていたので、今後増えてくればいいなあと率直に思います。最後に、今回の東大寺は音響的なバランスが良かったんですけど、会場によっては音場空間を創るのが難しい場所もあると思うので、やはり「Nuendo」などのDAWで持ち込んで現場ミックス、現場修正というのは、不可欠だと思います。東大寺でのサラウンドコンサートに関するレポートは以上です。これで、私の話とデモを終らせていただきます(一同拍手)。


■Q&A

Q. 結局クリップはサラウンドで8つくらいですか?
A. そうですね、私の既存の作品も流しました。もし今後機会があればバンド演奏のサラウンドにもチャレンジしてみたいと思います。ただ今回はバンドアレンジが約1週間のスタジオリハーサルで決まり、スペシャルゲストも多かったので、サラウンドの出番はちょうど良かったと感じています。

Q. ということはすべて1週間で創ったのですか?
A. いえ、打合せの段階で布袋さんから「物語」を掲示していただいたので下地になる音は創っていました。演奏と同調していくようなものはリハーサル期間で創っています。

Q. ではリハーサルの中で変更があればその都度変えていったのですか?
A. はい、その場でピッチも変えて(一同笑い)、家にも持ち帰ってやりましたね。

Q. リハーサルは山本さんも参加しましたか。
A. はい、後半から一緒に参加しました。

Q. サラウンドの音源は、リハーサルの際ミュージシャン側も一緒に聴かれましたか?
A. モニターとしては返しで来ているのでモノラルでは聴かれています。サラウンドとしてはリハーサルスタジオのミーティングルームに簡易セットを置いてもらいましたので、事前にこういう感じになるということはご存知かと。

Q. 今回、ライヴを含めたトータルのサウンドスーパーバイザーのような立場の人はいなかったのでしょうか?
A. 布袋さんですね。PA面ではヒビノさんかと思います。

Q. ステージのすべてのスーパーバイザーとして布袋さんだったのですね。
A. そうですね。

Q. 主催はどちらですか?
A. 東大寺世界遺産登録10周年記念実行委員会、朝日新聞社、株式会社SAPです。

Q. 毎年行なわれていますか?
A. 定期的に行なっているようです。昨年は谷村新司さんと千住明さんがされましたね。

Q. 毎回サラウンドですか?
A. いえ、サラウンドは今回が最初だと思います。

Q. 機材を組み立て、ばらすのは大変だったと思うのですが、スタッフは総勢何人くらいいましたか。
A. 現地の機材を組む方なども結構入り乱れていたようで、正確な数は分かりません。ヒビノさんが統括的に動かれていましたね。会場が世界遺産だけに色々と大変だったと思うのですが、プロが集まるとやっぱり形になるんだなとしみじみ思いました(一同笑い)。

Q. 先ほど布袋さんのギターの音を会場内で回したとおっしゃっていたのですが、モニター音と会場内の音で、布袋さんのライヴでのリスニング環境はどうだったのですか?
A. 会場で鳴っている8chの音はほとんど聴こえてないと思います、イヤーモニターをされていたので。

Q. 音圧は何dBくらいでしたか?
A. 分からないですけれど、結構出ていましたね。90〜100dBはあったのかもしれないですね。

Q. ライヴの際はかなりいじったのですか?
A. はい、MCのキーワードをきっかけで出す場合など、長さが分からないものは急遽A、Bで再生ポイントを変えてクロスフェードさせたりとか、それほど長く素材を引いていなかったものは臨機応変で、その場しのぎがありましたね。

Q. どういうきっかけで話が来たのですか? サラウンドでやりたいというのは布袋さんから発案があったのですか?
A. そうですね。ヒビノさんに布袋さんが相談されたのだと思います。私はヒビノの徳平さんから最初にお話をいただきました。

Q. 布袋さんはそれまでサラウンドのバックグラウンドはあったのですか?
A. ピンクフロイドの4chなどはご存知だとは思いますが、最近のSACD、DVD-Audioのサラウンド音楽作品はあまり聴かれてないと思います。もちろん映画のサラウンドはよくご存知だと思います。ですので、布袋さんにはサラウンド音楽作品をいくつかご紹介しました。

Q. 今回東大寺の音が非常に良かったとおっしゃっていましたが、事前準備でスタジオやミーテイングルームを使用していて東大寺に行く前のイメージ、これを修正しなければいけないと思っていたところは、実際行ってみても合っていましたか?
A. はい。最初に現場で聴いた時に大きな修正点はないと思いました。スピーカー個々のレベルや音質調整くらいですね。音場構成のイメージは明確に持っていたので、心配だったのはスピーカーの出力くらいでした。あまりにレベルが低いとモノラルスピーカーがボソボソと音を出しているだけで、音場空間は創られないので。

Q. お客さんが入ると音はだいぶ変わりましたか?
A. あまり感じませんでした。基本的にサラウンドはステージの音に追従しますので。音量バランスも本番で良いレベルを出したいということでリハーサルを気持ち抑えめで、本番でしっかり聴かせる感じでしたね(一同笑い)。思ったよりもローが出てました。回廊があって音が溜まるのかもしれないですけど。残響も程よく、東大寺自体が音響をよく考えられて造られていると感じました。
山本:実際現場で聴いて感動したことが、もちろん野尻さんのSEも布袋さんの音楽も良かったですが、そこに10月ということもあり虫がいい感じで周りで鳴いていてそれがすごく良かったです。そして布袋さんが「Dancing With The Moonlight」という曲を歌っている時にちょうど月がものすごくきれいで自然の中でのライヴという感動もありました。

Q. Blu-rayになる時は布袋さんの演奏されたバンドの方もサラウンド化されるのですか?
A. それは分かりません。でもBlu-rayでそういった作り方をするのであれば布袋さんは実際のライヴでもそのようにしたと思いますね。

Q. 今回の東大寺のスピーカーはメインスピーカーを入れて合計最大で10chでしたがこの規模の大きさの会場でバジェットと時間を度外視した場合、野尻さんのやりたいことがこのスピーカー数で再現できましたか?
A. 制約を度外視するということですか、もしチャレンジするなら縦の空間かなと思います。普通に音場空間を創るということでしたらあのチャンネル数で充分でした。

Q. 野尻さんが一番聴いてほしかった見せ場はどこでしたか?
A. 各幕の冒頭ですね。ギターが回るシーン、魂が浮くシーン、宇宙のシーンはサラウンドの存在感があり、効果もあったと思います。

Q. 生音の収音は今回のライヴに向けて行ないましたか?
A. 妙珍火箸という風鈴だけ生音で後は全部サンプルです。効果音を創りバンドと合わせるのは今回が初めてで非常に楽しかったです。

Q. いままでこういうサラウンドという形でライヴは日本でありましたか?
A. 誰もが知っているメジャーの方では初めてではと思います。

Q. 自分のアルバムを最後に流せたのはどうでしたか。
A. いやー、気持ちよかったですよ(一同笑い)。

■ 今後の活動について

残りの時間で今後のサラウンドの活動予定などを少しご紹介します。尚美学園では冨田研究室を設立して次世代のサラウンド音楽家を育成してきましたがこれを拡充する形で2009年春に尚美総合芸術センターを設立しました。この取り組みのひとつとして学校が教育に有益な音楽ソフトの原盤制作を行い,その成果を外部制作部門とコラボレーションすることで経済基盤も充実させようというプロジェクトです。今年は手塚治虫さんの生誕80周年でもあり、その中のジャングル大帝で音楽を担当した冨田さんのスコアをサラウンドにアレンジして新録音しています。私は年内このプロジェクトにかかりきりになると思います。秋にはリリース予定ですので、ご期待ください。


沢口:野尻さん、山本さん、素晴らしい経験と貴重なお話、そして今後の大学での活動報告などをどうもありがとうございました。ジャングル大帝のサラウンドが出来上がれば、また寺子屋でも制作の様子などを話してもらう予定です!ご期待ください。(了)

「サラウンド寺子屋報告」Index にもどる
「サラウンド入門」は実践的な解説書です

No comments:

Post a Comment