December 31, 2010

最後の弾丸 : HD-TVサラウンド ドラマ 15年ぶりの再放送を期に制作を振り返りました!

ハイビジョン初期のドラマ「最後の弾丸」が、2010ー12ー28日にBSベストシリーズとしてBS-HIで再放送されたのを期に15年前の制作ノートを私のパソコンから取り出して振り返ってみました。今読んでも参考になるヒントがたくさんあります。

スタッフ構成を後で見てもらうと興味深いと思います。現在CM業界ならずマルチメディア展開で躍進中のTYOのHIRO YOSHIDA CEO自らが脚本をてがけ制作、現在ドワーフのCEOとなったNORI MATUMOTOさんがLINE PRODUCERとして若き情熱を注いだ作品でもあります。音響効果を担当した東洋音響 佐々木さんチームは、この時が初めてDAWというシステムで効果音を制作した記念碑でもあります。打ち合わせでこの時に「U-MATICの音声2トラックへ効果音を仕込んできますのであとはそれをシンクロ再生してください」といって私が「これはHD大画面でサウンドは3-2サラウンドでやりますのでそれでは太刀打ちできないでしょう」と返答しましたら、「TVドラマでしょう?」と返ってきたのが印象的でした。それから睡眠時間3時間で約一月のすさまじい!音声制作が始まったと言うわけです。
当時放送は、3-1サラウンドでした。しかしPCM-3348マスターを保管し、そこからデータをHDに移して我が家のPYRAMIXで5.1CH MIXを制作し、それをCPへ試写して3-1よりも改善されていることをアピールして、このマスターは、晴れて今日的な5.1chとしてアーカイブされることになりました。デジタルツールの恩恵は計り知れないものです。96年の第100回AES CONVENTION COPENHAGENでのHDTVとサラウンド音声制作というまだ世の中でHD-TVとサラウンド音声が十分認知されていない中で発表できたのもこの制作に関わったおかげでした。12-28日の放送を見ながら、また同じシーンで涙がでてきました!
 MICK SAWAGUCHI 2010-12-31記


日豪共同制作 終戦50周年記念HDTV ドラマ
「最後の弾丸」3-2サラウンド  制作 1995-06 HDV-520 STUDIO MIX 95-08-13 放送 BS-HI

[ はじめに ]
この作品は、終戦50周年を記念して、NHKとオーストラリア「9CH」の作品として、監督以下オーストラリアの映画人が制作した90分のドラマです。
HD-ハンディカメラの無い時代にスタジオHDカメラと中継基地を設営しての過酷なしかし挑戦的な制作として国内外で多くの受賞もした作品です。
当時のTD/HDVEであった苗村、松林コンビの努力は、賞賛に値します。95%がオーストラリアのジャングルで95年2〜3月ロケーションされ、オフライン編集までをオーストラリアで行い、オンライン編集と音声ポストプロダクションがNHKで行われた、まさに様々なスタッフが参画をして作り上げられたドラマといえます。


1 ガイジンとチームを組み成功するためのポイント
Re-Mix note to Mick Sawaguchi 26th June 95
Director of Last Bullet Michal Pttinson

MP wish to re-adjust some spot sound . rest of those were very fine.

Reel-1
1 Reception Scene
Louder more thunder and heavy rain .
2 Track interior
Creaking more and feel bump .
3 Banzai Attack
Banzai of loop group wish to listen one shot earlier over Stanley close-up .
4 Stanley stand up
Thunder to crossover on to Yamamura's photo.
5 Jane [you dead]
Put reverb on voice. make it dream like.
6 Borneo Village
More atomos less chooks.
7 Atomos as patrol walk into ambush
Put same atomos no water FX.
8 Yamamura's gun shot
Less reverb and more crack.
9 Stanley shoot Kuroki
1 shot only and more crack.
10 Kuroki's rifle
Sound feel far away more close,bright sound.
11 Ricochet sound off log
Cut it seems to be crochet.
12 Stanley behind log it end of R-1
Cut surround atomos.
13 Stanley hooked his gun
Put clink touch sound since Yamamura what's hear .
14 Yamamura's gun shot slow motion R-2
More delay on Yamamura's bullet.
15 Yamamura's gun shot at R-1
More bigger sound it hit sandbag .

いきなり英文の議事録がでてきましたが、これは今回のドラマ「最後の弾丸」のプリMIX終了時点での監督の要望のノートです。
我々日本人が共同制作をする上でどんな点に注意すれば成功裏に共同プロジェクトを遂行できるかを私の経験則から述べてみたいと思います。93年に「山田が街にやってきた」でイギリスクルーと94年は「8月の叫び」でチェコのクルーとドラマ制作を経験しましたが、いずれも監督以下メインスタッフは、NHK側でした。今回のスタッフ構成が大きく前者と異なるのは、まさに95%監督以下ガイジンという構成で、初顔合わせの仕事と言う点です。ではプロジェクトが成功するためのポイントをあれこれ・・・・・

1-1 契約条項の中で、自分の役割は何か?を明確に
1-2 あれこれ文化Vs Exactly文化----ノートによる確認
1-3 Silence is not a golden !-----コミュニケーションを
1-4 自分を分からせる---分かってもらう待ちの姿勢をやめる
1-5 日本人の美徳 気配り 先読み行動は慎重に
1-6 ジョークで明るいスタジオ

1-1 契約と自分の役割の確認ということは、自分がこのプロジェクトにどのような形で参画できるのか?また何をして欲しいと明記されているのかを個人的な思いこみだけで判断しないようにするということです。
我々はいきおい、思いこみが先行する民族のため契約条項などは、深く確認もせず、音声担当といわれると、すぐに自分がミクサーをやるものと思いこみ、いざ仕事が始まると、実はミクサーは向こうのスタッフにいて、我々には機材のメンテナンスやシステム管理を頼んでいた。と言った事例があります。こうしたスタート段階のつまずきは、後々までしこりとして残り結果としてプロジェクトがうまく機能しないといった現象を生じがちになります。
また自分はどんな権限があるのかどうかもポイントです。
指示をだしても効力があるのか、または単なるアドバイザーとして参考意見以上の権限は持たないのか?と言った点です。一人一人の役割が厳格に規定され、その範囲内でプロフェッショナルとして能力を発揮するという考えに好き嫌いを別にして慣れる必要があるということですね!

1-2 あれこれ文化Vs Exactly文化----ノートによる確認
“曖昧な日本人“ということばが今年ノーベル賞でキャッチコピーとなりましたが、何事もアウンの呼吸で分かり合える優れた民族性を持つ我々に対して何事も事細かに、具体的な数値やデータで表現しなければ分からない民族がいっしょに仕事をすれば、どうしても我々の思考方法は、不思議に受け取られてしまいます。例えばミクシングの表現を例にしてみましょう。
「あそこをこんなふうにガーと盛り上げるのがいいよね」「さっきのタイミングはもう少し上げかな」「あれとこれを混ぜてちょっとレベルを落とせば良くなるね」・・・・こう言った会話は、彼らにとって何の意味もありません。
そこで、あらゆることがタイムコードベースで表され、何時何分何秒何フレームから何時何分何秒何フレームまでを+3dBアップ、とか1フレーム遅らせるといった具体的な表現をしなければなりません。
また各制作段階では、監督と打ち合わせやスケジュール、本日の作業予定などを議事録として文書にし、双方が確認をして合意の上で次に進む・・・・と言った段取りのクセをつけておかなくてはなりません。
先に挙げた英文は、彼らがクリエーティブ ノートと呼ぶメモの一例です。
今回は、映像のオンライン編集が終わった段階で、作品全体のサウンドデザインを監督がどうしたいかを我々音声スタッフと打ち合わせたメモ。
プリMIXが終了しファイナルMIXへ行く前の、プリMIX メモ。
作曲家ネリダ・タイソン・チューさんは彼女独自で監督と打ち合わせた音楽構成についてのメモ。
それに毎日のミクシング作業工程メモをつくりました。
映画の世界では、監督中心主義ですので、監督が全てを掌握しておきたいという欲求を我々も無視してはトラブルの原因になりますのでご用心を・・・!

1-3Silence is not a golden !-----コミュニケーションを
無口で黙々と仕事をやる・・・というのが我々の美学とされてきました。
しかし、ガイジンと一緒となるとこれは、不信感を招く要因以外の何者でもありません。彼らがスタジオにいる場合は極力彼らに今何をやっているのか、どこまで行っているのか、何が原因で時間を食っているのか、トラブルがあればどんな解決方法を取ろうとしているのか・・・・といったことを周知しながらスタジオワークを進めなくてはなりません。ついついおっくうになったり、後ろで見ていれば分かるだろう。といった一人合点は禁物です。
今回こんな行き違いがあり、あやうく一足即発の事態になるところだった例をひとつ・・・・・。
ADRテープ(アフレコが録音されたDATテープ)がイギリスとオーストラリアから届き、我々はタイミングの調整をとるのにamsのオーディオファイルにコピーするのが作業として能率的であろうと判断し。コピー作業を始めました。
その間私は何もないので、連日の疲れもあり、ソファーでのんびりしていました。それを見た監督のマイケル・パッチンソンは、我々が何もしないでスタジオを遊ばしてゴロゴロしていると判断し、突然不信感を露にした態度で、抗議を始め、コピーをしていた担当者一同シラーとする事態となりました。
ですから、今やっていることは何で、とかこれから作る音について、自分としてはこう考えながら組み立てていきたいと思うが監督としては、どう思うか?
といったコミュニケーションを逐一計りながら作業を進めるのがスムースで良い結果を生むということを体験しました。

1-4自分を分からせる---分かってもらう待ちの姿勢をやめる
これも我々日本人の謙譲の美徳のひとつですが・・・・
積極的に自分をアピールすることを嫌います。そんなことをせずとも時間がたてば自分がどんな人間か分かってもらえる・・・という受け身の姿勢が強いからです。長い間同じ人間とじっくりつきあう農耕民族の我々。しかし彼らは、一度会った段階で、相手の全貌を知りたいという行動特性があります。要するにこの相手は自分の作品を委せるに足る十分な資質を持っているのかどうかを即判断したいわけです。ですから、我々日本人どうしであればなんと厚顔な自己宣伝にたけた奴か・・・と思われるくらいにまず初対面の段階で自己アピールをしておくことが大事です。
自分の特徴や専門性、他の人に比べてどんな能力を持っているのかをまず始めに分からせる努力を自ら積極的に行うということです。また、海外の同業仲間などで友達がいればそんなことも話しておくと意外なところで繋がりが有ったりもする場合もでてきます。どんな業界も特殊で「SMALL WORLD」だといえるからです。今回偶然にもオーストラリアのDAWメーカでエディ・トラックというメーカのオーナーと監督のマイケルや作曲のネリダさんが友人で、その彼と私は、92〜3年頃のAESコンベンションで何度か話をしたという機会がありました。マイケル達が今度NHKで仕事をするんだと話したところ「俺はNHKなら沢口というミクサーを知っている」という話題になり、お互いの接点があったことで、初期段階のコミュニケーションが大変スムースになりました。
またネリダさんは、少し日本語が話せるので、こちらも親しみが湧き、いきおい世間話もティー、ブレイクに楽しむといったことができます。ガイジンも日本語の基礎会話くらいを勉強しておいてほしいものです。我々も苦労しながら彼らの言葉で意志疎通をはかっているのですから・・・・
ネリダさんは、オーストラリア人は、家族や家庭の話題をもちだすのを楽しむのだそうですが、相手がアメリカ人の場合は、絶対に話題にはしないそうです。
病めるアメリカのひとつの側面かもしれません。
彼女には、映画音楽の構成や今回のドラマの音楽の構成など、またいわゆる業界用語などを尋ねてみましたがとても親切に話しをしてくれました。
ひとりでスタジオに孤立感だけを感じるような空気にしないということもとても大切です。彼らもスタッフの一人としていつも参画したいと言う気持ちに変わりはありません。彼女は、アメリカの映画音楽家でジェリー ゴールドスミスという人がいますが、彼の元で映画音楽を勉強し、今はオーストラリアでTVや映画、テーマパークといった仕事をしているそうです。オーストラリアでも長編映画制作は年に2〜3本程度に減ってきており、優秀なスタッフもあまり仕事がない状況だといっていました。彼女は今回自費で来日し我々のMIXに参加をしているのですが、自分の音楽がどういじられるのか不安もあったでしょうし、これがヒットすれば彼女の音楽に今以上の要請がくるというチャンスに賭けてもいるのです。一度のチャンスを大切に、そこで出会った人たちとの出会いも大切にというのが基本にあるように感じます。

1-5 日本人の美徳 気配り 先読み行動は慎重に
我々は、周囲の状況を的確に判断してすばやく次の予測行動がとれる優秀な民族であることを誇りにできます。しかし、そうした思考性向のない人々にとってこの行動は、不信と懐疑をもたらす何者でもありません。
トラブルを起こさないためには、必ず彼らに事前に説明をして、そうした行動にでる必然性を納得してもらわなければなりません。彼らのプロ意識というのは、自分が与えられた範囲で与えられた要求を100%実現することにあります。我々の気配りは、いわばその領域を時として踏み越える行動になります。
親切のつもりが、あいてのプライドを傷つけたり、と言った事態になり、こちらは、“何だ親切でやってやったのにあの態度は”とおもい相手は、“自分の領域を勝手に犯す失礼な奴だ”と憤慨することになります。
国内で一部ロケがありましたが、監督のマイケルと撮影監督のロジャーは、撮影が終わると、車に乗り込んでさっさとホテルに引き上げてしまいます。
これが日本人だけのクルーであれば、きっと翌日から監督のいじめが始まることでしょう。“なんだ撤収を手伝いもしないで自分だけ帰ってしまうなどとんでもない”と言う感情からです。しかし彼らのルールではそれはそれぞれの専門家が自分たちの受け持ち範囲を完璧にこなせばそれのほうがいいのだ!という考え方です。こんな例もあります・・・・・海外のスタジオで録音をした日本のミクサーが撤収を手伝おうとフロアーのケーブルを巻き始めたところ。フロアー専門のスタッフから「あなたは我々の仕事を奪うのか」と抗議されたとか、自分たちの仕事が早く終わったのではかの機材撤収を手伝おうと、手をかけるとやはり迷惑そうな顔をされたとか、部屋の周りが汚いので掃除をしようとしたところ、掃除担当の人から抗議された・・・等などどうも気配りがマイナスに働くケースのほうが多いようです。これは言葉の問題もあり、我々がなにもいわずいきなりそうした行動にでることも原因のひとつです。必ず相手に状況を分からせてから行動に出るという鉄則をひとつ。

1-6 ジョークで明るいスタジオ
ネクラのプロはあまり好まれません。スタジオの雰囲気はいつも明るく。
といってもラテン系の人たちのように重大な過ちがあっても“ノープロブレム”を連発されるのもこまりますが・・・
日本コロムビアの穴澤さんに聞いた話ですが、フィリップスレコードのスタッフたちは、いつも一人ひとつの小話やジョークの披露合戦をやるそうで、そんな中に日本人が真面目一路で参加すると実に気まずい雰囲気になるといっていました。仕事の腕だけがよいというのは、かれらからみるとまだ完成されたプロとみないのでしょう。自分を印象づけるためにもまた時に落ち込みそうな仕事になるときもこの明るいジョークで乗り切りましょう。
今回の本論音声編を紹介したいとおもいます。


2 3-2/3-1ステレオのマルチマスター制作
HDTVのVTRは、8トラックのマスター音声が記録できます。これを有効に利用するためにはどのようなMIX をしておくのがよいか検討した結果私は、HDTVで制作したソフトの多メディア応用が可能な階層構造を持つマスターつくりとして以下のようなフォーマットで行うことにしています。
  * 映画/イベント会場での再生方式    3-2サラウンド
  * ハイビジョン放送方式        3-1サラウンド
  * 現行ステレオ再生方式        2チャンネルステレオ
ですから、HDVTRには

1-CH L
2-CH R
3-CH C
4-CH S
5-CH S-L
6-CH S-R
7-CH Lt
8-CH Rt

と言った内容でマスタリングされ、ここからメディアに応じて使い分けが行えるようになります。大画面には、サラウンド これが原則です。


3 制作の流れ
3-1 プリプロダクション
基本はドラマ制作の一般的な流れと同じです。同録素材は、オーストラリアのプロダクション ミクサーのDATテープと録音シートをたよりに、必要とおもわれる素材をAMS-オーディオファイルにコピーしこれらは5インチのMO-ディスクで保存されます。
一方効果音は、チャンネル数の多いフェアライトMFX-3(16-ch)にワークのVCR タイムコードを元に素材を張り付けていきます。これも5インチMOディスクで保存されます。プリMIXが終了すると、フォーリー録音を行います。今回はていねいな音が欲しいとのマイケル監督の要望で、極力同録にあるアクションノイズでもさらにそれを補強する素材を多く録音しました。またライフルスコープ越しに見える松葉杖の少年の足音や雨で曇ったスコープを擦る音、落ち葉を払うと表れる蟻の足音、戦死者の死体にそよぐ竹笹や水音、狙撃する際の銃が塹壕の銃眼にこすれる音といったかすかな気配を注意して表すことにしました。

今回初めて仕事をした東洋音響の佐々木さん達は、映画でのフォーリー録音に豊富なキャリアをお持ちで、ひとつの音に4人が小物を分担して手際よく雰囲気を作り上げていきます。最近若い効果の人たちが、選曲や出来合いのCDから切り出して組み合わせることに意義を感じている傾向がみられますが、こうして本来の手作りで録音された生音ややはり力があります。
これも録音は、フェアライトのMO-ディスクにタイムコードとともに録音しました。同録 効果音の準備には我々のプリープロルームである、AP-812とAP-818を使用して10日間行いました。

3-2 プリMIX
各素材が仕込まれた段階で、音の加工合成を行うプリーMIXとなります。これにはCD-809でおもにベースノイズ系をそしてハイビジョン専用のポストプロダクションスタジオHVD-520へはいってからサラウンド系と同録の整音、国内分のアフレコ、をまとめる段取りとしました。HVD-520 では、メインのモニターをチャンネルあたりピンクノイズで、85dB、隣接プリプロルームの小型サラウンドモニターを83dB、そしてゲストルームにある一般TV用の小型ステレオモニターを78dBに規定してバランスの確認をすることにしました。これは前回の3-2MIX「8月の叫び」と同様です。

3-3 3-2サラウンドのデザイン
今回は、ジャングルの中の狙撃兵と生き残ったオーストラリア兵の1対1の駆け引きが中心です。サラウンドは、雨や雷、ジャングルのアンビエンスといった自然な雰囲気表現と前半の日本軍の万歳アタックの戦闘シーン、日本の狙撃兵山村の銃声のひろがり、そして回想や夢で出てくる声の表現とにわけてつかいました。
狙撃戦となる2人の切り返しを一方はサラウンドでもう一方はアップのモノーラルでとプリMIXで作ったのですが、マイケル監督から、これはお前のBIG TOYで人々を混乱させるだけだといわれやむなくサラウンド分は押さえることにしました。


3-4 MIX- ダウン
ミクシングのトラックシートを示します。HVD-520のコンソールはAMS/NEVEのLogic-2でこのオートメーションを活用してMIXが行われました。
私は規模の大きな作品は、2man MIXを採用しており今回も、私が台詞と音楽を東洋音響の小川さんが膨大なチャンネル数になる効果音を担当し進めました。音楽はL-C-R-Sの4-ch MIXでTASCAM DA-88にタイムコード付きで持ち込まれていますのでこれは単純にロックをとればOKです。今まで音楽はステレオ仕上げしか経験がありませんでしたので、台詞や効果音が入ることで特に音楽のセンターとサラウンドのレベルをフォローしなくてはならず「なるほどアメリカが3ーマンMIXをやるわけはここらへんかな・・・」と実地訓練で納得する状況もありました。



ミクシングの段取りは、以下のようにし数分単位のブロックでメモリーしていくことにしました。
* まず土台になる台詞トラックをOK に仕上げる。
* 次に音楽を固める。
* 効果音トラックを固める。
* 全体を3カ所のモニターで聞いてバランスチェック。
* 再度修正
* もう一度3カ所で聞いてOKなら次のブロックに進む。

この方法はあまり日本人に馴染みません。というのは全体をコントロールするのではなくひとつひとつを積み上げて、また修正するという方式だからです。我々は一気呵成にいきおいや流れのリズムを重視し、こうした細切れのMIXでは自分の流れが出来にくいと判断してきたからです。生放送という歴史を持つ放送制作では特にそうしたことがディティール以上に重視されてきました。
しかし、粘っこい彼らの論理は、ディティールの積み上げなのです。
ですからコンソールにもコンピュータアシストは必要不可欠の要素なのです。
あれは腕に自信のないやつが使うものだという傾向の強い国内の状況とも違います。でもそうやって細切れにMIXしてもいつも全体の設計を計算していればリズムをぎくしゃくすることもありません。現実にそうした作品が世界中でヒットしているわけです。

[ おわりに ]
原案構想から3年。準備から1年をかけて具体的な形になった本作品は、これまで当然のように行われてきた自社内完結主義から、それぞれの分野のエキスパートが参画してプロジェクトを組んで制作を行うという体制で行われました。これは、永年NHKで国際共同制作を担当してきたNOBUO ISOBE CPの哲学でもあります。すなわち放送という限られた条件下でベストであればいいといういいわけが通用しないメディア制作者が日本でも育って欲しいという思想です。わたしにとってもそのことを監督やスタッフから十二分に体験できましたし、音の責任はすべて引き受けると言う責任感を育成するのにも役に立ちました。最後に関係スタッフを紹介してお礼に変えたいと思います。(沢口真生 記)

[ 音声スタッフならびに関係者 ]
ミクサー           沢口真生(NHK)
アシスタント         会田裕二(NTS)
音響効果           佐々木英世 小川広美(東洋音響)
DAW フェアライト指導     岩崎進(NHK)
HVD-520 エンジニアリング  嶽間沢彰

監督 Micheael Pattinson
音楽 Nerida Tyson Chew
制作 吉田博昭(TYO)
Georgina Hope
Cris Noble(9-CH)
磯部信夫(NHK-HV)
制作補 松本紀子(TYO)
Mark Baron


広島発サラウンドドラマ「火の魚」:実践5.1ch サラウンド番組制作
「サラウンド制作情報」 Index にもどる
「サラウンド入門」は実践的な解説書です

December 15, 2010

第69回サラウンド塾 3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用 Max Holtmann


By. Mick Sawaguchi
日時:2010年12月15日
場所:タックシステムショールーム
講師:Max Holtmann (RMEテクニカルアドバイザー)
テーマ:3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用

* 2010-12-15のUSTREAMアーカイブを合わせてご覧ください。


沢口:2010年12月でサラウンド寺子屋塾は69回目になりました。先月と今月で3Dの映像とサラウンドはどういう接点があるのかをテーマにしました。先月はIMAGICAさんの試写室をお借りをして、実際に最近の3Dとサラウンドの作品を体験し、今回は、RME社のエンジニアの方が来日するということで、ヨーロッパで始まっているWave Field Synthesisというテクニックを日本に紹介してくれないかという事で、快く一日我々の為に時間を割いて頂きました。興味のあるテーマなので我が家では入りきれないと思い、TACセミナー共催という形で山本さんにご協力もいただきました。また今回寺子屋の様子をU-STREAMでライブ配信する試みも行いますので各地の皆さんは、楽しみにしてください。



Wave Field Synthesis(WFS)というプロジェクトは、ヨーロッパにEUREKAというプロジェクトがありましてこれは国家のプロジェクトで、カルーソというコード名がついているプロジェクトで、長い間WFSが研究をされてきてそれが実機として世の中に出すところまできました。
私は2年前にアメリカのTodd-AOという大きなダビングステージが3Dのファイナルダビングをする為のダビングステージを作ったというニュースを読み、写真を見たら壁全面にスピーカーが埋まっていてこれにWFSという技術が使われていてそれをインストールする機材面はRMEがやっているということでした。

今回は、是非そのWFSがどういう原理で我々が日頃制作をしている5.1chの方法とどういう違いがあるのか、メリットデメリットもあると思いますので、そういうところを講師のMax Holtmannさんからお話して頂けたら良いなと思います。それではMaxさんの紹介をシンタックスジャパンの村井さんからお願いします。


村井:シンタックスジャパンの村井です。講師役のMAXは、ビールで有名なミュンヘンのすぐ横ハイムヒューゼンという所にあるシンタックス本社で、ジュニアプロダクトマネージャーをしております。現在は、香港OFFICEで業務を行っています。いくつの専門用語や数学の方程式も出てくるので、10年ぶりという方もおられるかもしれませんけれども、是非お楽しみ下さい。
今年のフランクフルトミュージックメッセで、後ほどご説明致します、IOSONO社もsonic emotion社もブースを出しておりまして、Maxが卒業をしましたドイツの大学、デトモルト大学、そこも先ほど申し上げたEUREKAの1つのリサーチセンターになっておりまして、ほかにはベルリンの工科大学もそうですし、オランダとか、フランスとかいくつかあるように思うのですけれども、ヨーロピアンコミュニティ自身が新しい産業育成ということで投資をしてその結果がようやくここに巡ってきたのが、このWFSです。昨今の映像は3D映像が出てきている訳ですけれども、実際に映画館に行ってもスイートスポットは限られているのでなかなか端の席の人は良いかたちで楽しむ事が出来ない。どうしたら良いのかという事の一つのソリューションとしてWFSが注目されており、RMEはどちらかというと裏方でお手伝いをしております。WFS自身は1チャンネルあたり大量のスピーカーを使います。4面使いますから平均して128本とか500本とか、大きいところは720本とか使いますのでそういうところでご承知のMADIという技術を使いお手伝いしております。ではMAXよろしくです。

Max:本日はWFSについてお話をしたいと思います。私がいたデトモルト大学では2つのWFSシステムが入っています。ここでは、それをどのように使うかという研究を行っています。
本日のメニューですが、まず3D音響の単語とその背景について少しお話しをします。
その次に実際に使われている導入事例や、どうやってミックスを行うのかをお話しします。
最後に今後の見解などをお話しします。

[3D Sounds]
まず3D音響の実現方法にいくつかのアプローチがあります。
● Wave Field Synthesis(WFS)
● Higher Order Ambisonics(HOA)Multipoint Approachと呼ばれるもので5.1ch、7.1ch、22.2chのものがあります。
● Perceptually motivated approach。ここに書かれているのがVector Base Amplitude Panning(VBAP)とDirectional Audio Coding(DirAC)と呼ばれるものでとても重要なのがDynamic binaural synthesisというものです。ダミーヘッドやHRTFなどを応用しています。

[Evolution -from MONO to WFS]
音響の進化を最適リスニング位置(SWEET SPOT)と言う観点からお話しします。まず20世紀の前半にはグラモフォン蓄音機が部屋の隅っこに置いてあり、モノラルで音が流れてくるSWEET SPOTを探して、どこに座ろうとは考えなかったと思います。
その後20世紀半ばからステレオがポピュラーになり2つのスピーカーの間に座って聴くシステムが生まれました。今もステレオが一番流行している方法の理由としてはヘッドフォンですとか凄く簡単に音楽を聴く方法だからです。2つのスピーカーを置く場所があるのと価格帯もリーズナブルなものになります。ただ問題が一つありまして、スピーカー2つ、LchとRchのスピーカーの間に座らなければいけないという制限があります。その後5.1chサラウンド方式が出てきて、スピーカーの間に座らなければいけないだけではなく、部屋の真ん中に座らなければいけないという時代が起こってきました。 課題は、多くのリスナーへ広いSWEET SPOTをどう提供できるかにあります。

[Principles of Wave Field Synthesis]
今回お話しするのが、そのサラウンドで部屋の真中のスイートスポットをなくして、部屋のどこにいてもサラウンド体験が出来る環境の作り方です。まず1つのスピーカーが置かれているのを想像してみて下さい。私をスピーカーと思って頂ければ、そばに座っている人たちは私の方から音が流れている方向感覚を得ると思います。そういった環境で言うとやはり真ん中に座っている人しかサラウンドの感覚は得られないと思います。なのでスピーカーを10メートル、20メートル離す事でスイートスポットを大きくしてサラウンド感覚を広げる事が出来ます。しかしスピーカーを離してしまう事によって、高い周波数は減衰してしまいます。実際の音波の波形を見て頂きたいと思います。この波形の一部分を切り取ったものをご覧下さい。スピーカーに近い音波ほど球面波をしております。遠くにいけばいくほど平面波になります。我々の耳はこの球面波と平面波を聞き分ける事が出来ます。なのでWFSの基本原理はこの平面波を再現する事を目的としています。
すなわち小さな点音源スピーカを発音体として多数組み合わせることで平面波を作り出そうというわけです。この原理は17世紀にクリスチャン・ホイヘンス氏が発案した方法です。どんな波形も、より小さな波形で復元する事が可能だとおっしゃった方です。なので先ほどの図に戻りますと、壁に複数のスピーカーを備え付けます。これらのスピーカーにそれぞれ別々のディレイとアンプリチュードを流して、それを再生するとこのようになります。その波形を繋げると先ほど遠くの方にあった波形を復元する事が可能です。なので視聴者にとって方向性というのが生まれます。壁の外に音源があるような感覚になるのですが、その距離感というのは伝わらずに方向性だけが残ります。このようにしてすべてのスピーカーをすごく遠くに置く事によってスイートスポットを大きくする事が出来ます。課題は、音をスピーカーに当てはめるという事になります。20世紀に数学者によって色々考えられた方程式があるのですが、その一つは、部屋の隅々を小さなマイクで埋め尽くし、それでそれぞれのチャンネルを個々に録音をする。そのマイクを同じ数の小さいスピーカーに置き換えて再生を行うことでWave Fieldを再現する事が可能だという風に考えました。この部屋でいうと、私が立っている所で私が本当に話しているようにどこにいるひとにでも聴こえるという事です。これは素晴らしいのですけれども、経済的な恩恵を受けるのは、マイクとスピーカーメーカーのみだと思います。またとんでもないデータの数となってしまいます。さらに問題があって録音する部屋とプレイバックをする部屋が同じでなければいけません。


では、現実的な実現をどうすればいいのか。先程も言ったようにバーチャルなスピーカーを壁の後ろに配置したい、このモノスピーカーの為のモノファイルが存在します。そしてそのスピーカーの位置を記すテキストファイルがあります。その2つのデータをプロセッサーに送ります。プロセッサーで計算したそれぞれの信号を、1つ1つのスピーカーに流します。結果この図のように部屋の周りをぐるりと回すような事が出来ます。このためにはオーディオのファイルを変えるのではなく位置関係を表示するテキストファイルを変えるだけで可能になります。そして先程の部屋の内向き波形ではなくて、反対向き、外向きの波形を作りさらにスピーカーの数を多くする事によってバーチャルな音源を部屋の外側だけでなく中に置く事が出来ます。これが可能なのはデッドな部屋がある事と沢山のスピーカーが必要になります。この方法がスピーカーのモデリングを行う、音源のモデリングを行って再現をする方法です。なぜ本日WFSの話をしているかというと、これが代表的なモデルベースのテクニックとなるからです。

 

先ほどのPerceptually motivated approachとかは、モデリングベースではないアプローチとなります。まず音源のレコーディングを行います。例えばボーカリストをとてもドライな空間で1つのマイクロフォンで録音します。そして再現する時、プレイバックする時は、その人のモデリングを行うというような形になります。現在の研究ではこの位置関係をどのように保存するのかが問題になっています。今ご覧頂いているのがAudio Scene discription format(ASDF)というものになります。これは2つのファイルからなっています。まず上に表示されるのが最初のファイルです。まずこの上のファイルとオーディオファイルの2つを再生場所へ送ります。ファイルの指定と位置関係の指定でxとyが定義されているのが見られます。なのでプロセッサーが分からなければならないのはこのデータをどういった場所でプレイバックを行うかということなので2つ目のファイルにそれが記されています。ここに実際に書かれているのがスピーカーの数と位置です。1つ目のスピーカーの位置関係が書かれています。このフォーマットだと動きは再現できません。現在ベルリンの工科大学で研究が進められています。なのでプロダクションの段階ではまず最初にドライな空間でレコーディング、そしてその場所を保存をします。それの受け渡しを行うためにはWAVファイルで保存をして先ほどのxmlファイルのテキストファイルを作ります。受け取った側は5.1ch、7.1ch、バイノーラル、WFSなどどんな形のサラウンドでも再現できるような形をとることが目標となっております。なので、プレイバックの環境を問わずにプロセッサーの力だけで再生ができるような形が目標になります。
少しだけHigher Order Ambisonicsのテクノロジーと、Wave Field Synthesisのテクノロジーの違いを説明します。私が感じているのはドイツはどちらかというとWFS、そしてフランスはHOAに力を入れているのではないのかなと思います。実際にはそんなに音質の違いはありませんが実用性の部分では多くの違いが出てきます。WFSは様々なセットアップで使用する事ができます。HOAは円状に設置したスピーカーでのプレイバック方法しかサポートしません。HOAのレコーディングはサウンドフィールドマイクロフォンで行われます。WFSですと今持っているマイクを使うことができます。レンダリングの複雑さはHOAのほうが高いです。WFSはかなり単純化されているので、そんなにプロセッサーのパワーは使いません。ヨーロッパですとWFSは20以上の研究機関が研究し。実際の設備としてもワールドワイドで20ものエンターテイメントベニューで導入事例があります。

[ WFSの実用例 ]
1つはスイスから出ているsonic emotion社のsonic wave、もう1つが2週間前に発表されたドイツのIOSONO社から出ているSpatial Audio Processor IPC100になります。以前はIOSONO社は全くsonic emotion社とは違うアプローチをとっていて、IOSONO社はより完全な再現を目標としていました。仕様を見て頂いても分かるようにずっとsonic waveのほうがチャンネル数が少ないです。ただ凄く処理能力は速いです。私の大学では14台導入されていて、300ぐらいのスピーカーに流しています。レイテンシーは7ミリセカンドとすごく低く素晴らしいことだと思います。sonic emotionは他の機器との互換性もとても高くて様々なホールやミュージアム、ライブ等に導入事例があります。IOSONO社の新しいボックス(IPC100)を使うと先ほど説明したHOAやその他のサラウンドシステムとも互換性があり、ボタンひとつで5.1chのシステムに変えることができます。以前はIOSONO社は独自のスピーカーを作っていました。ロサンゼルスに導入されているシステムはとても高価なものになります。現在はポリシーを変えてどんなスピーカーでも使えるようにまた少ないスピーカー数でも使えるような形をとっています。先日見た導入事例では、10個ぐらいのスピーカーで再生ができる環境となっていました。以前は40から50ぐらいのスピーカーが必要でした。メーカとしてはオーディオクオリティー、効果、価格のバランスが大事なことです。


[ University, Cinemas and other applications ]
導入事例を主に見て行きたいと思います。私の大学では2つのどちらのシステムも入っています。これは私の大学のコンサートホールの例です。400ほどのスピーカーがぐるりとホールの周りを囲んでいます。この黒く見えるバンドが発砲スチロールのバーにそれぞれ8つのドライバーがついているものになります。これを作った当時にIOSONO社のものを導入しようと思っていたらすごく高価になっていたかと思います。今はそうでもありません。また、レイテンシーの部分でもsonic emotion社のものを導入する必要があったと思います。ここではMADIを使っています。地下にある14のプロセッサーでレベルとディレイを計算しています。MADIで送信するのはオーディオファイルのみとなります。コンピュータネットワークで送信するのが位置関係になります。これが実際の地下の写真で、これがsonic emotionのサーバーです。アンプが左側にあります。コンサートホールのなかに小さなデスクを用意して、Apple Logicのワークステーションのコントローラーを置いています。

ミキシングを行う一番最初の問題がどこで行えばよいのかが分からなかったということです。解決策はなく、現場のなかで動き回ってミキシングをしなければなりません。Logicのプラグインはこのようなインターフェイスになっています。個々のソースが小さな点で表示されています。コンサートホールの形をしているのが壁を囲ったスピーカーになります。先ほど映像に映っていたオルガンのところにギャップがあります。そこにはスピーカーがありません。


ではどのように使用しているのでしょうか?一例として、Raphael Cendoという現代音楽を作っているクラシック音楽家がいます。コンサートを行う会場に図のように5つのスピーカーを周りに配置しなければならないというような作品を作りました。なのでその構成としてはライブのドラムセットがあるだけでなく同時にスピーカーからも5つのサウンドが流れるような曲を作りました。この5chのスピーカーをWFSと置き換えて、そのため小さなホールで聴いているお客様みなさんが同時にライブのドラムとサラウンドの感覚を得ることができるような環境づくりに成功しました。


私の大学は音楽大学なので作曲家は他にもいます。今見て頂いているスコアは、WFSを使うことを前提としたスコアを実際に作り始めています。これは1人のシンガーと12個の別の楽器のスコアになっています。このスコアはライブで聞きながらプレイバックも行われている少し不思議な作品になっています。このような作品に使うだけでなく、リバーブの環境を変えるというような試みも行っています。オランダの製品でSIAP MKというプロセッサーがあります。コンサートホールの中に小さなディスプレイがあって、ホール全体の音響環境を瞬間的に変えてしまうというものです。オルガン奏者としてはすごく必要なことで、大きなホールですとオルガン奏者はとても長いリバーブタイムが必要なのでオーケストラとはだいぶ違う環境が必要になります。図のようなセットアップになっていてステージの上に複数のマイクロフォンが備わっています。プロセッサーがそのマイクの信号をWFS用に計算をします。一瞬で環境が変わります。
私の大学以外でも様々なところでWFSは使われています。たとえばsonic emotion社の製品で言うとsonic waveのプロセッサーをcoolux社Pandoras Boxと一緒に使うことでライブイベントができます。他には大規模な映画館でも使われています。ここで見ているのがフランスのシネマ展示会「Cinemateque」になります。IOSONO社は独自のシステムを使って独自の映画館を作ったことがあります。ひとつはロサンゼルスにあります。もうひとつはドイツにあってどちらかというとデモンストレーション用のべニューとなっています。私が実際に体験した映画では大きな木がお客さんに向かって倒れてくるというものがあります。客席の左側に座っているお客様は、右側に木が倒れてくる感覚を得て、右側に座っているお客様は左側に木が倒れてくる音が聞こえます。他には、製品発表会など様々なイベントでも使われています。これはシアターです。これはモナコ。フランス、パリのCentre Pompidouという現代アートのエキシビジョンです。香港のショールームでは実際に座って、音源をジョイスティックを使って動かす事ができるような部屋があります。私が知っている限りで一番大きなWFSの導入事例としては、ベルリン工科大学です。これはIOSONO社のシステムで白く見えるのがスピーカーになります。2年前にこのセットアップですごく面白い試みがありました。300km離れたケルンからのライブ転送です。ケルンの教会のWave Fieldをそのままこのホールで再現しました。ベルリン工科大学の外ではケルンのコンサートへのチケットを売っていましたので、お客さんの反応は様々で半分ぐらいはベルリンにいるのになぜこのような感じがするのか戸惑ってしまう方もいらっしゃいました。





[How to create WFS mixes]
次に、IOSONO社のプロセッサーを使用したワークフローを紹介します。スポットマイクをそれぞれのミュージシャンに置きます。そして部屋の環境を複数のマイクで録音をします。オーサリングツール、この場合はSteinberg Nuendoを使います。プレイバックではスポットマイクでレコーディングしたものを前の方に置き、部屋の音響を録った信号は四隅から鳴らすような形をとりました。これがその時のマイクセットアップ図です。IOSONOのワークステーションでは次のような図で表示されました。これのプレイバックを一度行ったとき、実際に録ったのと同じぐらいの大きさの部屋で行いました。なので部屋の前の方に立つと実際にオーケストラの中で聞いているような形になり部屋の後ろの方で聞いているとディフューズサウンドフィールドにいるような形になります。リスナーが慣れている音というのはその間の感覚です。部屋の後ろに座っていてあまりダイレクト音が聞こえないのは不思議な感覚でした。またあまりにも速く動くサウンドよりはゆっくりと動くソースのほうが感覚としては凄く良いものだと思います。
IOSONO社のプロセッサーには映画用の設定があります。最初にお話したセンタースピーカーを部屋の外に置いてしまうということがここで表示されています。ダイアログチャンネルが真ん中に表示されています。レフトスピーカーがあり、ライトスピーカーがあり、サラウンドスピーカーが部屋の後ろのほうに配置してあります。今ある5.1chなどのサラウンドミックスを表現するようなプリセットになります。これにより、より多くの人がサラウンド体験ができるような環境ができます。映画のプロデューサーがWFSを自身のスタジオで作ることができるのであれば、独自のソースを外ではなくて部屋の中に持って来て動かすことができるようになります。もちろんオートメーションもサポートしています。映像がなくても音声だけでも面白い効果が得られます。これは音楽でビートがゆっくり部屋の中を動くような形になっています。IOSONOのデモクリップで目の前で家が燃えているのがあります。もちろん見えないです、音だけなので。家が燃えている音がします。後ろから消防車がアプローチしてくるので後ろを観るような形になります。なので消防車が止まって消防士たちが出てきて叫び声ですとかドアが閉まる音とかがします。その大変な事態の真ん中にいるような感覚になります。

[ 課題 ]
たくさんのスピーカーを使うのでスピーカーのやはり質は落とさなければいけない。そんなことをすると、やはり音質的には良くありません。なのでセットアップにも関係ありますが、私の大学の音はそんなに良くありません。ただ、エフェクトは音質の欠点を忘れてしまうほどとても面白く、ここもバランスが重要だと思います。WFSの正確な再現には、デッドな部屋が必要だと先ほども述べましたが、私のいた大学では、空間が大きく響きも大きいのとスピーカーの質がそこまで良くないので音源を部屋の中に持ってくることができないのが問題です。それでもやはり5.1chよりははるかに面白いです。なぜならば、サイドの、例えば右サイドのフロントからリアに音が動くときのギャップがなくなるからです。
機材の選択は何をしたいのかによって様々です。なので使い方によってsonic emotionの方が適切であったり、IOSONO社のものの方が適切であったりします。今サウンドエンジニアとって一番問題なのが、IOSONO社のデータをsonic emotionに持っていくことができない互換性の問題です。なぜならばsonic emotionはIOSONOで使っているASDFファイルが読めないからです。なので我々の期待としてはひとつのオープンソースの方法、コンテナを開発してもらってさまざまなプロセッサーでどのようなモデリングベースの再現でも使えるような形を期待しています。また今後、オーサリングツールの充実も期待しています。sonic emotionは現在LogicとPyramixでしか使えません。IOSONO社のものはNuendoでしか使えません。数週間前にベルリン工科大学で発表された独自のWFSのプロセッサがあります。WFSだけでなくHRTF、バイノーラルですとかアンビソニックもサポートしています。そして素晴らしいのはこのソフトウェアは無料だということです。今からお見せするビデオがすごくおもしろくて、このプロセッサを使ってどういったことができるか見て頂くことができるかと思います。IOSONOのようにベルリン工科大学はこのASDFのフォーマットも開発した機関なので、今後出来ることとしては本当にIOSONO社と同じようなことができるようになります。今からお見せするのはAndroidのアプリケーションを使用していてスピーカーの配置がそこに表示されます。その効果というのはヘッドフォンを使って聞くことができます。それと同時にWFSとして流すこともできます。ご覧ください。



[ 動画視聴 ]

Max:今後の期待としてはもっとオープンソースで互換性が必要です。そうすればエンジニアとしてはコンテンツがすごく作りやすくなり、どんなところでもどんな環境でも再生できるようなことになると思います。これが私の考える今後の3D音響の未来です。では、質問などあれば、どうぞ。

[Q&A]
Q:高さ方向の表現は可能でしょうか?
A:IOSONO社ではもうすでにそういった試みもあって2段構成で少し高さも表現できるような、今ご覧頂いたサウンドスケープレンダラーでも高さが表現できると思います。もちろん他でもできるとは思うんですけれども複雑なテクノロジーになっていくことと思います。WFSでは不可能ではなくて要するにスピーカーの数の問題というところになります。我々の耳の働きは、高さより横の動きのほうに敏感ですので少しのスピーカーで高さというのは感じ取ることができます。

Q:プロダクションの段階でオーサリングしてから16chマスターでプロセッサーに行くという事なのですが、その16chはどういう構成になっているんでしょう。
A:制限はなく、要するにモノ音源が16chという事になります。なのでオーディオファイルのモノチャンネルが16個ということなので、例えばギターとボーカルとなにかが1つのチャンネルに合わさっていることもできます。ただそれが再現されるときはその3つが一緒に動くような形になります。

Q:ものすごく複雑にすると大変ということですか?
A:やはりそこまで16でも32でも、人間の脳が32個もの違うチャンネルを判別できるかというのはわかりません。もしかしたら予備として取っておくチャンネルとしてはいいかもしれないです。

Q:WFSでは、ひとつの仮想音源を作るのにいくつのスピーカーが必要になりますか?
A:最低でもこのくらいの部屋の大きさで、50〜60個のスピーカーが必要です。

Q:例えば3Dを表現するのではなくして、一方向から音が来るということを表現するにはどうですか?
A:やはりひとつのソースだったとしてもすべてのスピーカーにすべての方向から音を流さなければならないので、すべての壁を埋め尽くす必要があります。

Q:通常の5.1chの再生の場合は、スピーカーがLRCLsRsとチャンネルと場所が明確に分かれています。(スピーカーを多く設置する)WFSで5.1chの音源を再生するときに、エリア分けといった考えはあるのです?
A:明確なエリア分けはありません。例えばLchだけにある音源であったとしてもデータは、すべてのスピーカーで再生されます。実際にWFSでミックスするときは、WFSプロセッサーに、LchはL方向の遠くに、CchはC方向の遠くに、R、Ls、Rsと設定します。そうするとことで、サラウンドのスイートスポットが、コンサートホールのように広がります。

Q:5.1chの作品を作る場合は、WFSのプロセッサーまかせで、注意する点はないのでしょうか?
村井:この理論の一番のポイントは、再生周波数特性が半分になります。各社は、アルゴリズムを使って周波数を上げることをやっています。人間の耳は高域特性が敏感ですから、
A:あなたがサウンドエンジニアなら、5.1chミックスを心配する必要はありません。モデルベースミックス(WFS)では、5.1chの制限はありません。すべての楽器のファイル個別に用意し、リバーブを使い、それをどの位置から再生するか指示することができます。
村井:実際にホールでオーサリングしてみると、Logicの画面でパンニングできます。
A:楽器を個別のファイルで用意し、位置情報を指示します。(WFSの)サウンドレンダラーは、5.1ch、ヘッドフォン再生、WFSなど、それぞれの再生環境に合わせて変換します。


Q:すでにある5.1chのコンテンツから、WFSのコンテンツを作ることは可能ですか?
A:できます。もし、サックスだけを(WFSで)パンニングするには、先ほど紹介したプラグインを使う必要があります。複雑なパンニングは上手く表現できません。5.1chのミックスにパンニングする楽器を追加すると効果的かもしれません。

Q:例えば、 既存の5.1chのスタジオで、WFSの劇場向けのコンテンツを作るにはなにが必要ですか?
A:それは簡単です。5.1chのマスターを用意し、劇場に設置されたIOSONOプロセッサーを5.1chモードに設定すればWFSで5.1chの再生が可能です。また、どのようなコンテンツを提供するのかでも変わります。しかし3D映画で、飛び出してきた映像に同期して突然声が観客の目の前に出るような場合は、WFSでミックスする必要があります。

Q:その場合は、どのような機材が必要ですか?
A:WFSプロセッサー、NuendoなどのPCが必要です。
WFSプロセッサー、ヘッドフォン、5.1chの再生環境、NuendoとNuendoのプラグインを組み合わて作業する必要があります。もちろん、映画のようなWFSの効果を得るには、WFSの再生環境(プロセッサーとスピーカー)が必要です。何故ならば、5.1チャンの再生環境では限界があるからです。

Q:WFS専用のコンソールが必要ですか?
A:いいえ。既存のコンソールを使い、例えばダイアローグ1、ダイアローグ2を作りIOSONOレンダーに送り、リンクされた2台目のPCのNuendoのプラグインで、映画を見ながらマウスの操作でコントロールできます。

Q:高さ方向を表現するには、スピーカーをもう一列追加すると説明がありましたが、天井や床に設置する方法はありますか?
A:いいえ。現在のオーサリングツールでも大変複雑で、さらに機材が必要になるので、もう少し先になるのではないでしょうか。重要なことはWFSには限界がなく、オーサリングでの制限であることです。

Q:先ほど話にあった、木が倒れてくる作品の話がありましたが、それはWFSの環境で作られたものですか?
A:WFSの環境で作られたものです。

Q:わたしは、チャイニーズシアターでIOSONOで作られた映画を聞きました。個人的に映像の3Dだけではだめでこの情報化社会で映画館にお客さんを呼ぶには音の3D立体化しかないと思いIOSONOには注目しています。しかし、映像のデジタル化に費用がかかり、音にお金を使うのは大変です。映像が3D化されても、お客さんは20年前の5.1chの音で我慢しています。普通の5.1chフォーマットをIOSONOで聞いてもたいしたことはなく、IOSONOでミックスされたものはすばらしいです。なので(IOSONOの)36chや2階層になったシステムはいいと思います。(映画館、スタジオ、音響監督がIOSONOをひとつのフォーマットとして取り入れるには、どんな障害がありますか?
A:興味深いことがありました。IOSONOのこれまで高価でしたが、1ヶ月ほど前にポリシーを変更しました。オーサリングがスピーカー設置がなくても、モデリングベースで行えるようになり、これば個人の考えですが、費用がかからず、多くの人に高品質な3Dサウンドの提供が可能になるのではないでしょか。新しいIOSONOのオーサリングツールでは、映画用のWFSだけでなく、映画をiPhoneとヘッドフォンで聞いている人や、映画をの5.1や7.1スピーカーで向けに作ることができます。


Q:作り手側が3Dサウンドに興味をもってコンテンツを作ることが必要ですね。携帯からどうやってリンクしているのですか?
A:プロセスはLinuxのサーバーで行われ、そのIPネットワークにワイヤレスLAN経由のアンドロイド携帯電話でリモート操作します。

Q:WFSで、部屋の中で音のない空間は作るとこできますか?
A:残念ながら困難です。部屋には壁かあり、壁には反射があるので、完全に反射のない空間は不可能です。

Q:無響室では可能ですか?
A:無音を再生すれば可能です。(一同笑い)

Q:60個のスピーカーを使うことが想像できないのですか、WFSのコンテンツを作る環境を教えてください。
A:ミキシングコンソールは通常、5.1アウトだけではなく、サブミックスを作るためのステムアウトがあります。例えば、コンソールは15サブミックスを作ることができます。5.1chではなく、それのステムをIOSONOレンダーに送り、映像に合わせて動かします。それを最後に5.1chのミックスにしたい場合は、IOSONOレンダーで変換が可能です。(スピーカーごとではなく)音のソースごとで考えて下さい。

Q:プロセッサーの後に60個のアンプが必要なんですか?
A:はい。60個のスピーカーには60個のアンプが必要です。(一同笑い)

Q:60個のスピーカーが動作しているかチェックする簡単なシステムはありますか?
A:わかりませんが、私の大学では24個のスピーカーに動作確認の青いランプがありました。sonic emotionのプロセッサーにはスピーカー補正の機能があります。IOSONOの新しいプロセッサーにも同じ機能があるのではないでしょうか。


沢口:どうもありがとうございました。WFSの技術背景と実際の実用現場の話が聞けたのは、大変貴重な機会だったとおもいます。共同開催として会場を提供していただきましたTACシステム山本さん、そして講演の時間を寺子屋のためにアレンジいただきましたシンタックスJAPANの皆さんどうもありがとうございました。(一同拍手) この後TAC山崎さんからMADIに関連したTAC取り扱い製品の紹介、シンタックスJAPANから最新のFireFace UFXと同軸ニアフィールドモニターSP KSデジタルの紹介がありました。




[ 関連リンク ]
sonic emotion
http://www.sonicemotion.com/

IOSONO Sound
http://www.iosono-sound.com/

シンタックスジャパン・RME製品
http://www.synthax.jp/

「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です

December 1, 2010

第75回 長野朝日放送の7 時間生番組・今年も全編サラウンド!:実践5.1ch サラウンド番組制作


By Satoshi Inoue 井上 哲



“「ヘッドフォンサラウンドミキシングで確実に放送を成立させれば、放送サラウンド普及の足がかりとなる」と、この環境でのサラウンドヘッドフォン使用に踏み切った。(中略) 今年も間違いなく、最も過酷で、しかしミキサー冥利につきる仕事となった。終了後の打ち上げで「来年はもっと凄い事やるからよろしく」と笑って話す統括プロデューサー氏の言葉がまた、不気味ではあるが。(苦笑)” 月刊FDI 2010/12(PDF)より

SVS・サラウンドヘッドフォン:実践5.1ch サラウンド番組制作

「実践5.1ch サラウンド番組制作」目次へもどる
「Let's Surround(基礎知識や全体像が理解できる資料)」
「サラウンド入門」は実践的な解説書です

担当サラウンド寺子屋サポーター:Go HaseGawaKazuki KobayashiNSSJP