2023年8月5日、エレクトロ・デュオCAPSULEのライブ“メトロパルス”が行われた。しかも場所はVRChatというメタバース空間。今回のライブへの参加にはいわゆるゲーミングPCが必須という敷居の高さにもかかわらず、集まったオーディエンスは約1,200人以上で、しかも海外からのログインも多かったそう。その盛り上がりはSNSを中心に広まっていったが、コロナ禍以降はリアルな動員のライブに回帰しつつあるアーティストも多い中、CAPSULEのブレインである中田ヤスタカはどのように考え、このバーチャル・ライブを敢行したのか。ライブ制作監督として尽力したコンピューター・アーティストのReeeznD(レーズン)とともに、制作を振り返ってもらうとしよう。
- 【Start of VR live project】制作中のVR空間で打ち合わせからバーチャル化
- 【Building VR sounds】空間形状や減衰具合も含めて“その位置でしか聴けない”音
- 【VR and DTM production environment】現代のPCなら個人で何でもできる素晴らしい時代
- 【Possibilities of VR live】アバターがシンセのプリセットをリアルタイムに変える未来
【Start of VR live project】
制作中のVR空間で打ち合わせからバーチャル化
まずは今回の舞台となったVRChatについて基本情報をまとめておこう。“VR SNS”とも言われるように、VRChatはユーザーがアバターを作り、他のユーザーとのコミュニケーションを楽しむためのプラットフォーム。VRChat内にはワールドという単位でスペースが設けられており、ユーザー同士のコミュニケーションに特化した場はもちろん、美しい仮想空間を楽しむだけのものもあれば、今回のようなバーチャル・ライブやファッション・ショーなどのイベントも行われ、各国の有志が趣向を凝らしたワールドを制作して進化を続けている。いわば、世界中の知見によって日々高められているような状態で、“オーバーグラウンド前夜”というような雰囲気も、またVRChatの魅力だ。
──VRライブの構想はいつからあったのですか?
中田 最新アルバム『メトロパルス』に収録されている楽曲のMVは既にバーチャルな世界で展開していましたが、MVを作ってくれた最勝(健太郎)さんから、“ゲーム・エンジンで作ればリアルタイムに動かすこともできる”という話があったんです。そのときはCinema 4Dで作ることになったんですが、自由に自分のバーチャル・キャラを動かしたいなとは思い続けていて。VRライブというよりも、まずはCAPSULEのMVの中に入れるようなものを作りたいと思っていたのが、今回のライブにつながっていった感じです。
──VRライブ会場のほかに、ユーザーが自由に動き回れる“CAPSULE HOUSE”という空間も併設されていますね。
中田 これはまさに「バーチャル・フリーダム」のMVに登場する建築物ですね。僕と最勝監督でデザインしたリゾート・スタジオをイメージした空間で、データもあるのでそのままライブ会場のロビーとして使ったらいいんじゃないかと僕から提案しました。
──実際に今回のVRライブに着手し始めたのはいつから?
ReeeznD 僕がお話をいただいたのが今年の3月くらいでした。まず重要だったのは ライブを成功させることだったので、ライブ日までの残り時間を逆算して、どのくらいのボリュームなら制作可能か考え始めました。なので、今回は4曲/15分の長さが現実的だろうなと思って提案させていただいたのですが、それでも本当にギリギリまで作ることになりました(笑)。
──中田さんとReeeznDさんはどのようなやり取りを行っていったのですか?
中田 実際のやり取りで言うと、VRということを意識しないでVRの中で作っていきました。
──それはどういうことですか?
中田 実際のライブ会場で舞台装置の打ち合わせするように、制作中のVR空間にヘッドセットを付けてみんなで入って、“この高さはこんな感じがいい”とか“観客席の見え方はもうちょっとこう”というような会話をしていったんです。みんなで一つの画面を共有しながら意見を言うのではなくて、それぞれが3Dの空間で移動しながら、身振り手振りを交えてやり取りしていくという。MVのような映像制作とはかなり違いましたね。
──アバターを通してVR空間の中で打ち合わせをしたわけですね?
中田 そうです。面白い体験だったんですが、VRをまだ始めていない人にこの面白さをどうしたら伝えられるのかは結構難しいと思っていて。この記事を読んでもらう方々も、平面的なスクショを見てもその面白さは想像できないと思うので、何が何でもヘッドセットを付けて飛び込んできてほしいと思っています(笑)。
──今回が初めてのVRライブだったというユーザーもSNSで興奮した反応を見せていましたね。実際に体験してみると筆舌に尽くしがたいインパクトがありました。
中田 そうなんです。VRライブはVRで見ないと分からない、というのが一番思うことなんですけど、それって実際のライブも同じことだと思うんですよ。その場に行かないとライブの良さは分からない。実際のライブとVRのライブで同じことを感じるというのは、逆にすごいことだと思うんですよ。体験としてはその次元まで来ている。
──リアルタイムにその場にいるという体験自体は、リアルでもVRでも同じレベルになったということですね。
中田 ライブが始まる前に周りのユーザー同士で雑談するということも含めて、一人で画面を見て鑑賞するのは違う体験だと思います。最初にReeeznDさんから、“こんな感じで作っています”という確認のものを見せていただいたときに、それに合わせて僕の方でも音を変えたんですよ。最初はドライというか、リリースしている音源がそのまま流れる感じだったんですが、もっと空間があることを感じてほしいと思ったんです。VRが実際のライブと違うところは、流す音楽に関してはユーザーの各環境に委ねることになるんですけど、音響効果というか、“こっちに移動したらどう聴こえるか”とか“空間の広さが演出によって広くなったり狭くなったりということはやった方がいいな”と。それからReeeznDさんが作ってくれたものを見て、効果音も必要だろうと思って付け足していったり。
ReeeznD 例えば「ギヴ・ミー・ア・ライド」でロゴが出てくる場面があるんですけど、そこで爆発音を中田さんが付けてくれて。ここまでやってくれるんだと感動しました。
──演奏音だけでなく、効果音も中田さんの領域だったのですね。映画好きの中田さんならではです。
中田 あのロゴに関しては、もともとナイス・タイミングで出てくるようになっていたんですよ(笑)。歌いきった後にロゴが出てくるので、歌とカブらずに効果音が付けやすくて。
ReeeznD 効果音については、演出監修で入ってくれたキヌさんとも話していました。キヌさんは自身でもVRライブをやっていて、音も演出もすべて自分で制作されるので、効果音が足りなければ自分で足します。でもアーティストの音源はある意味聖域なので、演出側で音源に勝手に音を足すわけにもいかない。今回は効果音は難しいだろうと二人で話しながら、音がなくても気持ち良いタイミングでロゴと爆発だけ入れたんですね。そうしたら、リクエストしていないのに、中田さんがロゴに合わせて効果音を入れてくれて、本当に感動しました。キヌさんも興奮していましたね(笑)。
──クリエイティブな部分で自然に意思疎通が取れたという貴重なエピソードです。
中田 あと、効果音に関しては曲間に40~50Hzの地鳴りみたいなローを入れたりしているんですよ。空気感を出すために。これがどれだけユーザーに伝わっているか分からないんですけど、ヘッドフォンを付けて聴いてみてもらうと分かると思います。なので、なるべく音の良い装置で聴いてみてほしいですね。
【Building VR sounds】
空間形状や減衰具合も含めて“その位置でしか聴けない”音
今回のライブはPCのみで閲覧もできたが、VRというからにはヘッドセットなどのVR機器を接続して、その世界観に没入した方が断然楽しめる。META(OCULUS) Quest2やHTC Viveなど、VR元年(2016年のこと。懐かしい……)の状況から考えると、VR機器は市場で普通に手に入るようになったし、APPLEがVision Proを発表したり、今年はMETA Quest3の発売もアナウンスもされている。唯一残念なのが、VRChatはWindowsのみ対応で、今のところMacには非対応。オーディオに関しては、ヘッドセットの内蔵マイクで聴くこともできれば、中田の発言のように、お気に入りのDAコンバーターを用意してヘッドフォンで楽しむこともできる。
──今回、オーディオの音質設定などはどのようにしていったのですか?
ReeeznD VRChatは、ゲーム・エンジンのUnityを使ってVRワールドを作るため、音質部分もUnityに任せている部分が多いです。が、今回は音楽ライブだったのでできるだけ音質はキープしようと考えていました。ライブで怖いのはお客さんがたくさんいることで処理が重くなってしまい、フレーム・レートが下がって、ガクガクしてくる現象が起きることなんです。ですので、音質はキープしながら処理も重たくならないような設定を探しました。Unityの中で音質と処理負荷を確認しながらオーディオに圧縮をかけています。
──ステージ上のスピーカーL/Rから音が出る空間設定になっていましたね。
中田 今回はソースをステレオにしました。ただ、ReeeznDさんがワールド内でそのステレオがどう響くかを調整して、そういう意味では立体音響になっています。アンビエンスは僕がソースのステレオに加えて、空間での減衰処理などはReeeznDさんの側で設定してもらいました。
──ヘッド・トラッキングで左右の音が場所によって変わるのはもちろんですが、見ている場所の高さや距離によっても音の聴こえ方が異なっていました。あれはどのように処理をしていったのですか?
中田 空間自体がインタラクティブ性があるものなので、例えばユーザーが見ている映像は既にレンダリングされたものではなくて、リアルタイムに動いているものなんです。音についても位置関係もリアルタイムに処理されています。最初にVR内でサウンド・チェックしたときは、ラジカセがステージ上に置いてあるかのように聴こえてしまっていたんですね。もうちょっと空間を感じたいと思って、ReeeznDさんに音の出所の処理を詰めてもらって、そこから何m離れたらどれくらいの音になるか調整していってもらいました。
──距離感に対して音の変化がいじれるツールがある?
ReeeznD VRC Spatial Audio Sourceという、音の定位を3D空間にシミュレートし、立体音響にするプログラムが用意されています。その減衰具合は基本的には現実の音をシミュレートしたグラフになっているんですけど、今回用に減衰具合のグラフを全部書き直して、ライブとして気持ち良く聴こえる減衰に変えました。ただ、完全に立体音響だけにするとどうしても音質が下がってしまうので、気が付かない程度に非立体音響の音を混ぜています。
中田 聴く位置によってライブの音が違うんですよ。その辺りはちゃんとやりたいなと思いました。どこで見ていても同じ音が聴こえてくるのが好きな人もいるかもしれませんが、僕はせっかくのVRなので、その場でしか聴けない音にしたいと思って。
ReeeznD それで言うと、最初はフロアの形状がすり鉢状の階段ではなくて、真っ平らなフロアだったんですね。途中で中田さんから提案いただいて、すり鉢状のフロアに変えたのですが、それが音響面にも反映されています。僕はMV制作出身なので、当初MVのように奇麗な2ミックスが聴こえるものが皆にとってうれしいだろうと考えたいたのですが、中田さんがVRについてすごく考えていて“VRだから”という提案をたくさんしていただき、それに応える形でもどんどん工夫を入れていきました。
中田 VRと言われているコンテンツは、固定カメラの360°映像のように移動ができないものや、立体ではないものも含めていろいろあると思うんですけど、そういう意味では、今回は一番VRしているライブだったんじゃないかと思います。ユーザー同士で会話もできて、移動に合わせて視覚と音響が付いてくる。この世界をなるべくたくさんの人に知ってほしいと思います。
【VR and DTM production environment】
現代のPCなら個人で何でもできる素晴らしい時代
ゲーム・エンジンUnityなどの話が出てくると、DTMerにとってVRは縁遠い世界というイメージが出てきてしまうかもしれない。しかし、中田はむしろ両者の関係性に共通点を見いだしていると言う。ReeeznDも“実はそれほど敷居は高くない”と同意する。
──音作りの側から見ると、VRコンテンツの制作は非常に難易度が高そうですね。両方できたら最強だと思いますが……。
中田 ただ、ReeeznDさんに対して語弊はあるかもしれないですが、サンレコの読者……要は音楽制作をやっている人たちとVRコンテンツを作る人って近い感覚もあると思うんですよ。レンダリングしないでリアルタイムに作っていける。今のDAWってCPUで十分じゃないですか。書き出してどうこうじゃなくて、プロジェクトの中でリアルタイムに作業できるから、いろんなことができる。それを生かして爆発力のある時代になったのかなと思います。個人の環境でできるのが大きい。
──やる気があれば個人で何でもできる時代ですね。
ReeeznD そうですね。道は開いていて、発表する場もあります。
中田 センスやスキルは重要でしょうけど、環境は個人で手に入る。そこが面白いと思う。ReeeznDさんに聞きたいんですけど、今のようにゲーム・エンジンを使ってコンテンツを作れるようになったのはどうやって? Unityを学ぶところからですよね?
ReeeznD 僕はもともとゲーム会社で10年くらいディレクターなどをやっていたんです。その後独立して、CGでMVを作ったりしていました。Unityを使い始めたきっかけはモーション・キャプチャーを安価な民生品でできるようになったことです。HTC Viveを7~8万円で買ってしばらくモーション・キャプチャーに使っていました。その後、GHOST CLUBなどのVRChatの楽しそうなスクショをSNSで見るようになって、そこに混ざりたい!と思い今のVRChatの世界に入るようになった感じですね。
中田 VRChatが面白いと思うのは、個人の範ちゅうで作るものとプロが作ったものが混在している気がして。僕もワールドを作れるようになったら楽しそうだなと思います。
ReeeznD 今回のVRライブを作るのに僕が影響を受けたのは、むしろプロじゃない人たちが作ってきたワールドです。音楽系のワールドも山ほどあって、そういうものをたくさん見てきました。キヌさん、制作チームのtanittaさん、cap.さんも、僕よりずっと長くVRに住んでいる人たちで、みな個人制作のワールドやアバターを作ってきた方たちです。
中田 音楽でも同じようなことってありますよね。モノを作ろうとするときにランキング上位のものを聴いても参考にならない。面白いものは個人の範ちゅうから出てくることが多いかなと思います。
──新しいカルチャーはそういう傾向がありますよね。草の根から生まれたものが徐々に伝播して、まあ最終的には商業ベースになっていくわけですが。
中田 そうですよね、うなずく人も多いと思います(笑)。プラットフォームとしてはVRは歴史が新しいじゃないですか。僕としては、このタイミングでReeeznDさんや演出監修してくれたキヌさんなど、その世界で活動されている方々と制作ができたのはすごくラッキーだと思っています。単純に楽曲制作者としてだけかかわるような形だったらこうはならなかったと思うんですけど、僕はテックの部分はもちろん、そのカルチャーとユーザーがどういう楽しみ方をしているのかも大事なので。VRChatってそもそも音楽ライブ用に作られたものではない。そこも含めて、何も知らないまま“この曲をライブをVRにしてください”って投げるだけだったら実現できなかったことは多かったと思います。周りの人に教えてもらいながら勉強して、遊んで、その体験はとても重要でした。僕もワールド制作できるようになりたいですね。ただ、DTMをゼロから始めるときの大変さも知っているので(笑)、何も知らない方がその世界に飛び込みやすいというのはありますね。
──何の知識もない人が、Unityを使ってVRChatのワールドを作るとしたら、どれくらいかかりそうですか?
ReeeznD 初めてUnityを触るくらいの人と仮定して……1カ月あればできそうな気がします。
──そんなに短期間で?
ReeeznD ゼロからワールドを作るとすると敷居が高いのですが、VRChatワールド用の素材があちこちで売られているので、それを自分好みに変えていくところから始めるのがお勧めですね。それで基本操作を学びつつ、音楽を乗せてみたり、ビデオ・プレーヤーを入れてみたりして、公開してみようかなと思えるまできっと1カ月くらいでしょうか。それができれば、今度は買った素材をモデリングしたものに差し替えていったりして、どんどんオリジナルなワールドになっていくと思います。
中田 DTM的に言うとコンストラクション・キットがあって、その中のループ素材でまず作ってみるというような感じですね。
【Possibilities of VR live】
アバターがシンセのプリセットをリアルタイムに変える未来
筆者自身、今回のVRライブを観覧して、単にディスプレイ越しにライブを見る行為とは全く異なることを身をもって体験した。“バーチャル”や“没入感”などの単語が使い古され、また、成長過程のコンテンツしか経験していない段階では“多分、ああいう感じかな”と、見る前から勝手に想像してしまうのも理解できる。正直、私もその一人だった。しかし、中田も指摘するようにエンターテイメントにおけるVRライブの可能性は大きく、また、リアル・ライブ至上主義の固定観念を持ち過ぎていることにも気付かされる。とりわけ二人の話を読むクリエイターの中には、“今からでもこの分野を勉強しなければ”と焦る人もいるかもしれない。
──先ほど、ライブ中の演出などもリアルタイムで処理されているというお話がありましたが、具体的にはどの部分でその要素を感じられますか?
ReeeznD 分かりやすいところで言えば、「ひかりのディスコ」のサビ部分で縦横無尽に光の筋が出てくるんですが、“このエリア内に、こういう感じで光が飛ぶ”という指示しか入れていないので、ランダム的な要素が加わっています。でも、何よりユーザーが好きな立ち位置から好きな角度で見られる。音の定位も3D空間の位置で変わる。現実では当たりのことなので気づきづらいですが、これをコンピューター上で実現できるのはリアルタイム処理だからです。
中田 リアルタイムで作っているだけじゃなくて、ユーザーに対してもリアルタイムで動いているということが重要です。音の方もこれから僕がもうちょっと知識を付けていけば、インタラクティブな要素を増やせると思う。今回は僕があらかじめ用意した音源でやっていますが、それをリアルタイムでやっていけたら、もっと音にインタラクティブ性を持たせられると思いますし、リアルタイムであることの良さやすごさをさらに伝えられる気がします。本当にやろうと思ったら、ステージ上のアバターがシンセに近づいてプリセット・ボタンを押すと、違う音にすることもできるはずなんですよ。
ReeeznD 実際に、シンセサイザーの音作りとシーケンサーでの打ち込みができる「Fractone」というワールドもあります。
中田 そういうことを実現していこうとすると、どんどんReeeznDさんの負荷が高まっていくわけですけどね(笑)。実際、今までやってきたライブの中でアイディアが一番実現できたのが今回でした。リアルでやろうとすると、そもそもそんな会場は無かったり、物理的に無理だったり、予算がいくらあってもできないことが多い。でも、VRライブなら現実の制約を受けないし、逆に現実的に感じられる要素も入れ込める。
ReeeznD VRをやっている人たちと話していると、今見ているのがフィクションなのか現実なのかが、自分の感覚でつかめなくなっているという声がありますね。例えば、ディズニーランドはフィクションから生まれたものですが、ディズニーランドに行ったということは現実じゃないですか。そのようなことがVRの中で起きていると思うんです。CGで作った世界なんですけど、その場で友達と見た体験は現実と変わらない。
中田 例えば、オンラインMTGって終了すると、“終わった”って思うだけじゃないですか。でもVRの世界って、ヘッドセットを外すと“帰ってきた”っていう感じがあるんですよ。帰宅感がある(笑)。その差を僕はすごく感じています。少し外出してきた、というような。
──今回、ReeeznDさんやキヌさんといった才能を、中田さんがフックアップしていくという、クリエイター同士の素晴らしいコラボにもなりましたね。
中田 いえいえ、VRChatの先人たちに僕が混ぜてもらった感じです。
──中田さんとしてはVRライブを今後の活動にどう生かしていきたいですか?
中田 音楽がかかる場所って体験とセットだと思うんですね。まさにフェスなんてそうですけど、その場に行くこと自体が楽しみの人も多い。そういった中で、音楽は演出ソースの中の一つという考え方を僕はしていて、それぞれのプラットフォームに最適なモノ作りをしていくのがいいと思っています。VRなら先ほどの効果音の話だったり、2つのスピーカーから音が出てくるということだけを前提にしなくていいし、VRライブに適した別ミックスを作ることも必要だろうなと思います。今までも“クラブでかける曲だから低域を調整する”とか“カラオケで歌われる曲だから歌を大きめにする”といったことは普通に行われてきたので、そのVR版というか。映画のMAとサントラは全然ミックスが違うのと似ていますね。今回はステレオ・ファイルをマスターにしたので、パラにしてみたらどこまでできるのか次回やってみたいです。
──中田さんが先陣を切って、他のアーティストたちもVRライブに参入してくる状況になると、また新しい未来が見えてきそうです。
中田 そうですね。ただ、みんなが始めるとReeeznDさんのスケジュールを抑えられなくなるのが心配です(笑)。
LIVE DATA
CAPSULE Live in VRChat “メトロパルス”
■日時:2023年8月5日(土)@VRChat
※2023年8月12日(土)、2023年8月19日(土)に再演
■スタッフ
◎全体プロデュース:Activ8 & ANNIN
◎ライブ制作監督:ReeeznD
◎演出監修:キヌ
■セットリスト
01.ひかりのディスコ
02.スタート
03.ギヴ・ミー・ア・ライド
04.バーチャル・フリーダム
■ミュージシャン
中田ヤスタカ(Music & Produce)、こしじまとしこ(vo)