バイノーラルと音楽:葛西敏彦が語る「2ミックスの常識を覆す3Dミックス」〜特集・バイノーラルで作る音楽の未来(3)

f:id:rittor_snrec:20201030145139j:plain

上モノだからと言って上方向に配置する必要は無く
下方向に配置したっていいんです

数々のレコーディングやミックス、PAの現場をこなすエンジニア、葛西敏彦氏。そんな氏がミックスを手掛けたトクマルシューゴ「Canaria」のミュージック・ビデオは、YouTube上でアニメーションが360°自由に展開し、それに合わせて音楽も聴こえ方が変わるという3Dミックスだ。ここでは葛西氏に、この曲の制作からバイノーラルについて今思うことなどを聞いてみよう。

Photo:Hiroki Obara(except*)

 

良いと思ったのは
ヘッドフォンがあれば誰でも聴けるところ

 そもそも葛西氏は、約20年前から映画の劇伴音楽の制作に携わっており、サラウンドのモニター・システムで仕事をしていたのだそう。

 

 「当時務めていたスタジオは、5.1chのサラウンド・システムを備えていました。それから少しずつ立体音響のライブを見に行ったりして、イマーシブの視聴体験も重ねていましたね。しかし普段はステレオ環境での仕事が多く、バイノーラルを取り入れた制作をやり始めたのは、ほんのここ数年のことです」

 

 葛西氏は、それまで自分からバイノーラルを扱う機会はあまり無かったと話す。そんな中、大きな転機となったのが、2019年の22.2ch作品、細井美裕「Lenna」だったという。

Lenna (HPL22 ver.) [feat. Chikara Uemizutaru & Misaki Hasuo]

Lenna (HPL22 ver.) [feat. Chikara Uemizutaru & Misaki Hasuo]

  • Miyu Hosoi
  • エレクトロニック
  • ¥255
  • provided courtesy of iTunes

 

 「ちょうどそのころはバイノーラルに興味を持つ人が増えてきた時期だったような印象です。「Lenna」は細井さんのコンセプトの下、自分とエンジニアの蓮尾(美沙希)さん、ACOUSTIC FIELDの久保(二朗)さんの3人が主に手掛けた作品。上水樽力さんの作曲の段階から22.2chを想定して行おうとしたのですが、単純に22.2chのスピーカー・システムが無くてできませんでした。そんなとき、久保さんが独自開発したバイノーラル・プロセッシング技術=HPLに行き着いたのです。実際ヘッドフォンでは、しっかりと定位を確認しながら制作でき、その精度に驚きました。また制作中には22.2chシステムでモニタリングできる機会もあり、HPLと交互に聴き比べたりして興味深い体験ができましたね」

f:id:rittor_snrec:20201030145505j:plain

久保氏が開発したバイノーラル・プロセッシング技術=ACOUSTIC FIELD HPL。「Lenna」ではHPLプロセッシング用コンピューターがモニタリング・システムとして使われた。画面はその技術を用いてヘッドフォンで聴く2chステレオ音源をスピーカー同様のバランスにするプラグイン、HPL2 Processor。Mac(AU/VST)/Windows(VST)に対応するフリーウェア

www.hpl-musicsource.com

 

 葛西氏はこのようなことを通して、よりバイノーラルに興味を抱いていったという。

 

 「最終的なアウトプットが想定されていることが、僕にとって大きかったです。「Lenna」の場合、HPL音源としてヘッドフォンがあれば誰でも聴けるのがよいなと思いました」

 

Nuendoにステム・データを読み込み
各パートを3D空間に配置する作業をしています

 葛西氏が手掛けたトクマルシューゴの「Canaria」は、アコースティック・ギターやコーラスなどを主軸とした実験的なポップ・ミュージックだ。先述したように、この曲のミュージック・ビデオは手描きのアニメーションが360°に展開する作品で、映像の角度に合わせて音楽も聴こえ方が変わるという3Dミックス仕様。1次Ambisonicsで仕上げたミックスが、YouTube上でバイノーラルとして再生される。

YouTubeにアップロードされたトクマルシューゴ「Canaria」のミュージック・ビデオ。手描きのアニメーションが360°に展開する作品で、映像の角度を変えると音楽の聴こえ方も変わる。ミックスは1次Ambisonicsで書き出し、YouTube上でバイノーラル化されている

 「まずトクマルさんから、普段通りにレコーディングしたオーディオのステム・データをもらいました。僕はそれらをAPPLE Mac Mini上のSTEINBERG Nuendoに読み込んで、各パートを3D空間に配置するといった作業をしています。2chのミックスは、既にトクマルさんがされていましたね」

 

 モニターは久保氏の協力の下、同軸スピーカーのCODA AUDIO D5-Cubeを8基使用。8chキューブ(下層4ch+上層4ch)で配置した。

f:id:rittor_snrec:20201030150026j:plain

スタジオのブースにセッティングされた8chキューブ・システム。写真にはそのうち上2基と下2基が写っている。モニターには、同軸スピーカーのCODA AUDIO D5-Cubeを使用(*)

 「Nuendoから出た1次Ambisonicsの4ch信号は、UNIVERSAL AUDIO Apollo 8からADATで久保さんのオーディオI/O=RME Babyface Proを通り、コンピューター上に立ち上がったソフトPLOGUE Bidule上のVSTプラグインでスピーカー・デコードしてもらっています。その8ch信号をApollo 8に戻しD/Aコンバートした後、パワー・アンプを通って8基のD5-Cubeへとつながっています」

 

 葛西氏は8chキューブのスピーカー・システムと同時に、HPLでバイノーラル化したヘッドフォンでもモニタリングできるようにしていたそうだ。

 

 「2chのミックス時でもそうだと思うのですが、やはりモニター・スピーカーでとらえやすいところと、ヘッドフォンでとらえやすいところがあるので、両者を使い分けるのは大事です。慣れもあると思うのですが、音作りをするには8chキューブでモニタリングしたほうが圧倒的に速く、音自体が持つ質感や輪郭、定位などが分かりやすいですね。音が“そこにある”という感じがします。ただし、絶妙なところを細かく聴き分ける作業においては、やはりヘッドフォンの方が特化していると言えるでしょう」 

 

2ミックスでの制限が解放される
3Dミックスのメリット

 Nuendo上で読み込んだステム・データを、葛西氏はどのように扱ったのだろうか。

 

 「基本的にNuendoで行った作業というのは、とてもシンプルで、ボリューム・コントロールと3Dパンニングくらい。プラグインはNuendo付属のEQやコンプをポイントで使っています。というのも、ステム・データをいただいた時点でほとんどの音作りが完成していたからです。そのため、音作りの面では僕が新しく手を加えることはあまりありませんでした」

 

 葛西氏が行った作業は、受け取ったステム・データを3D空間に配置して行くことがほとんどを占めていたという。氏は、3Dミックスのメリットについて語ってくれた。

 

 「2ミックスに慣れている人にとっても、上下の表現は割と新しい世界になると思います。「Canaria」でもそうでしたが、上モノだからと言って上に配置する必要は無く、下に配置したっていい。3D空間は2ミックスにおける制限を解放してくれます。例えば、2ミックスでは複数の楽器がある周波数帯域でマスキングした場合、どちらかを削るという発想になると思うのですが、3Dミックスでは単純に上下に逃がしてあげることで割とすんなり解決するのです。ある音を引き立たせるためにある音を削ぐという処理をしなくても済む瞬間が多いというのは、ミックス作業においてとても大きいメリットでしょう。「Canaria」のステム・データは、それぞれ録り音がとても豊かでしたので、この曲ではそれらの良さを自然に残せる良いミックスができたと思います」

 

 続けて葛西氏は、NuendoのMixConsoleウィンドウを見ながらこう振り返る。

 

 「Nuendoでは映像と音声を同期させることが可能なので、「Canaria」の場合は手描きのアニメーション映像を見ながらミックス作業をすることができます。単純に映像と音がリンクするのでやりやすいですね。ミックス面で言えることは、付属の3Dパンナー・プラグインSTEINBERG VST MultiPannerを使用していること。基本的には1曲を通して同じ配置に固定して鳴らしています」

f:id:rittor_snrec:20201030150244j:plain

NuendoのMixConsoleウィンドウ(赤枠)。オーディオやMIDIチャンネルの両方に対してレベルやパンのコントロールやソロ/ミュート切り替え、入出力のルーティング設定等を行える。パン・コントロール部分には、小型のSTEINBERG VST MultiPannerを装備。画像の右上には、DAWと同期させた「Canaria」のアニメーション映像が映し出されている

どの角度で聴いても
音楽的響きをキープできるミックスに

 「Canaria」におけるミックスの方向性について、葛西氏はトクマルシューゴと次のようなことを話し合ったという。

 

 「映像に合わせてエンターテイメント性を重視した動きのあるミックスにするのか、それとも音楽としてしっかり聴かせる作品にするのか、そういった部分です。VRの映像作品にするなら、音もガンガン動かした方が面白いでしょう。しかし音楽として聴かせる場合、何かしらの中心軸が無いと作品として感じられないと思ったのです。例えば、ギターを左右にぐるぐるパンニングすることもできるのですが、そうすると音楽的に響かなくなってしまう……。今回、そういった部分については検討を重ねました。その結果、どの角度で聴いてもある程度の音楽的響きをキープできるようなミックスをしたのです」

 

 具体的にどのような処理をしたのか、葛西氏はこう説明してくれた。

 

 「まず、ドラムが変な位置にあるとすごく気になりますよね? ドラムは楽曲のリズム全体を支配するため、その存在感は大きいのです。特にキックは曲のリズムの要なので、ずっとセンターかつ下の方で鳴るようにしています。これで、どの方向を向いてもキックのリズムを感じられるのです。ベースも同じような考え方で、このキックを包み込むように配置しています」

f:id:rittor_snrec:20201030150407j:plain

キックにインサートされたNuendo付属の3Dパンナー・プラグインSTEINBERG VST MultiPanner。リスナーがどの方向を向いてもキックを聴くことができるように、下層のセンターに定位させている

 葛西氏を悩ませたのは、ギターの定位だったそう。

 

 「最初はアコギとエレキのいずれも同じ高さに配置していたのですが、聴いてみて少し違和感があったため、アコギが水平よりやや下で、エレキがやや上に来るよう微妙に高さを変えています。楽曲的にエレキはメインとして登場することが多く、アコギはどちらかというと支える立場だったので、そのままそれらを上下間の関係性として空間内に表現しました。また距離感はアコギの方が近く、エレキは遠くで鳴っています。2ミックスでは音量を上げ下げして距離感を作ることもありますが、3Dミックスではシンプルに配置を動かす方が効果的な場合も多いです。3Dミックスでは、フェーダーを動かすことはあまりないかもしれませんね」

f:id:rittor_snrec:20201030150457j:plain

アコギ(画面左)とエレキギター(同右)にインサートしたVST MultiPanner。アコギを水平よりやや下、エレキをやや上に配置している。エレキはリスナーの遠くで鳴るようにパンニング

 ここで葛西氏は、ミックスのこだわりを教えてくれた。

 

 「アコギとエレキのように、2ミックスでも3Dミックスでも曲中で同じような役割を持つパート同士を対比させて配置することが多いんです。「Canaria」では、ほかにストリングスと木管を対比して配置しています。このように、一つの空間内で互いが対となって鳴っているようなイメージをミックスでは反映させることが多いです。こうするとバランス良く聴こえるんですよ」

 

 Nuendoのプロジェクトウィンドウを見ていると、曲の2:00過ぎからはギターがオートメーションでパンニングされていることに気付く。これについて葛西氏はこう説明してくれた。

 

 「このとき映像では宇宙に行くシーンなので、ギターもぐるぐる回っています。やはり耳に付きやすい帯域の楽器をパンニングした方が分かりやすいので、この曲ではギターをよく動かしていますね」

 

さまざまなHRTFを備える
VST AmbiDecoder

 葛西氏は、先述のHPL技術を使ったヘッドフォンでのモニタリングのほかにも、Nuendoに付属するSTEINBERG VST AmbiDecoderを使ってAmbisonicsからバイノーラルへの変換をしたそう。

 

 「VST AmbiDecoderを使った理由は、さまざまなHRTFを設定できる“HRTF Mode”を備えているため。HRTF Modeでは、Standard/SOFA/Facebook/YouTubeといった4種類のHRTFアルゴリズムを選択できます。「Canaria」は最終的にYouTubeにアップロードする予定だったので、このHRTF ModeではYouTubeを選択し、最終的にどう聴こえるのかをシミュレーションしていました。ただ、定位感の精度などに関して言えばHPLが個人的には好きです」

f:id:rittor_snrec:20201030150700j:plain

Ambisonicで仕上げたミックスをYouTubeへアップロードした後にどう聴こえるかをシミュレートするために使用したバイノーラル・プロセッサー・プラグイン、STEINBERG VST AmbiDecoder。HRTF Modeから4種類のHRTFアルゴリズムを選択できる

 葛西氏は、これから3Dミックスを始めたい人にはNuendoがお薦めだと話している。

 

 「3Dパンナーやバイノーラル・プロセッサーなどのプラグインも付属しているので、Nuendoだけで大体のことができます。YouTubeでの360°ムービー用に1次Ambisonicsでの書き出しもできるので、皆さんもどんどん作ってみてほしいですね」

 

バイノーラルの活用が期待される
ライブ・ストリーミング配信

 最後に葛西氏は、8月29日に開催された蓮沼執太フィルのライブ・ストリーミング配信でPAをしたときのことについて語ってくれた。

 

 「会場にAmbisonicsマイクを立てて収録した音と、PA卓で作った2ミックスを混ぜるということを行いました。合成した音は久保さんの力を借りてHPL音源にし、それをストリーミング配信したのです。通常なら2ミックスで行った方がノウハウもあるので良いサウンドを作ることができるのですが、会場に来られなかったリスナーの方たちのために、どうにかして現場の雰囲気を伝えたいと思った故に生まれたアイディアでした」

 

 この計らいは、最終的に素晴らしいアンサンブルの響きをとらえる良い結果になったと葛西は振り返る。

 

 「音楽は“人を感動させるためにある”ということが一番大切で、何でもかんでも最新技術を使えばよいわけでもありません。まだまだAmbisonicsやバイノーラルを使ったと言うとそちらの方に注目されやすい時代かもしれないですが、これからはこういった言葉がもっと当たり前に使われる状況になったらいいなとすごく感じています。今後はこういったライブ・ストリーミング配信の現場でもバイノーラルは活躍するに違いないでしょう」

 

studio ATLIO

f:id:rittor_snrec:20201030150843j:plain

葛西氏が拠点とするstudio ATLIO。メインのモニター・スピーカーには、MUSIKELECTRONIC GEITHAIN RL904(外側)を使用している。サブウーファーはMUSIK ELECTRONIC GEITHAIN Basis 14K。コンソールには、アナログ卓のEUPHONIX CS3000を備えている

f:id:rittor_snrec:20201030150900j:plain

ミックス・チェックには密閉型のULTRASONE Signature Pro(写真左)とSONY MDR-CD900ST(同右)を使い分けている

 

葛西敏彦

【Profile】サウンド・エンジニア。これまでに蓮沼執太、大友良英、青葉市子、スカート、Okada Takuro、細井美裕、トクマルシューゴなどの作品を手掛けてきた

 

【特集】バイノーラルで作る音楽の未来

www.snrec.jp

www.snrec.jp

www.snrec.jp

www.snrec.jp

www.snrec.jp

 

関連記事

www.snrec.jp

www.snrec.jp

www.snrec.jp

www.snrec.jp