オーケストラからボーカル、歌詞まで
すべて人工的に生成したアンドロイド・オペラ
唯一、生で弾いたピアノは
「世界の終わりに対峙する最後の人間」のメタファーに
初音ミクを主役に据えたボーカロイド・オペラ『THE END』で、オペラという伝統様式を使いつつ、極めて21世紀的な舞台を作り上げ世界に衝撃を与えた渋谷慶一郎。彼が次に注目したのはアンドロイド。世界的なロボット学者である大阪大学教授の石黒浩氏が製作したアンドロイド=オルタを使い、2017年から“アンドロイド・オペラ”の名のもとオーストラリア、日本、UAE、ドイツ、フランスで上演し、今回、その集大成とも言えるアルバム『ATAK027 ANDROID OPERA MIRROR』が完成した。当初は上演時のライブ録音をまとめるつもりで作業していたが、途中から大幅に方針転換。オーケストラの演奏をすべて英BBC交響楽団を精緻にキャプチャーしたSPITFIRE AUDIOのオーケストラ音源に差し替え仕上げた。そして、そのサウンドは今まで聴いたことのない未来を予感させるものであった。
劇場音楽は人生を賭けるに値する
──そもそも、なぜアンドロイド・オペラを始めたのでしょうか?
渋谷 初音ミクを主役に迎えたボーカロイド・オペラ『THE END』のパリ公演が終わった後に、次はアンドロイドのオペラだなと思いついたんです。オペラにしろポップ・ミュージックにしろ西洋音楽は人間中心主義でできてますよね。日本人がその後追いじゃないものをやるためには人間中心じゃない芸術フォーマットを作らないと勝てないと思ったんです。
──人間中心でないという意味では、2018年に日本科学未来館で上演されたアンドロイド・オペラ『Scary Beauty』で、アンドロイドが指揮者を務めていた姿が印象的でした。
渋谷 アンドロイド・オペラはまず第一に劇場作品なんです。劇場音楽と映画音楽、宗教音楽の3つは少なくとも僕が生きている間はジャンルとして存続するだろうから、残りの人生を賭けるに値すると『THE END』の後に思ったんです。それに対して、レコードやCD、配信といった複製芸術は100年後にはどうなっているか分からない。アンドロイドに指揮をさせたのはシアトリカルな要素を強めるという側面もありました。それこそマウリシオ・カーゲルみたいなことも頭にあって、例えばプログラムエラーで指揮ができなくなったりとか、壊れたりとか、止まったりしたとき、混乱するオーケストラ、ステージ自体を作品化しちゃおうという。
──アンドロイドのエラーさえも許容して楽しんでもらおうとした?
渋谷 “テクノロジーのエラーや事故を前にしてどうすることもできない人間=オーケストラ”みたいなことが最初のコンセプトでしたね。同時に未来館の時はすべてがギリギリで“今回ばかりは一生の汚点になるような失敗が起きるだろうな”と覚悟してステージに向かいました(笑)。
──その後のアンドロイド・オペラでは、アンドロイドは指揮者ではなく歌手としての役割がメインになりました。
渋谷 それは国立音楽大学の准教授の今井慎太郎さんと組みはじめたのが大きいですね。今井さんは演奏者と電子音のリアルタイム・インタラクションを専門的にやっている電子音楽家で、その延長線上でアンドロイド・オペラをとらえたんです。合成音声に身体性を与えることでアンドロイドは新しい楽器になる、という。合成音声のエディット自体は僕がやっていますが、それを今井さんがCYCLING'74 Maxで作ったパッチで、アンドロイドの身体を動かしつつ歌わせているんです。そうすることで合成音声のリアルタイム・インタラクションができるようになって、コードを解釈したりその場で鳴っている音に対して即興で歌うことができるようになった。僕のピアノとアンドロイドの合成音声でインタラクションするというか、即興で好きなだけ演奏することもできるようになったんです。
──アンドロイドが人間と変わらないレベルでステージを務めることができるようになった?
渋谷 はい。こうしてプログラムを成熟させていくとアンドロイドがオーケストラ・ガラみたいな規模のショーをやるっていうことをシニカルなメッセージとして伝えたほうがいいなと思ったんです。あと世界情勢的にもエラーを巡る初期のテクノロジカルなコンセプトより、そのほうがリアリティがあると判断したのもあります。
AIに歌詞を生成させる2つのやり方
──アンドロイドの歌に使った合成音声はどんなエンジンですか?
渋谷 いろいろ試行錯誤して、現状はYAMAHA Vocaloid 6とDREAMTONICS Synthesizer Vを使っています。ハーモナイズを3度重ねとか5度重ねとかここはダブルだけとか、そういうのをかなり細かくやっていて常に複数の声が重なっています。特にアルバム制作の途中でオーケストラをソフトウェアに差し替えることが決まってからは合成音声のパートも全面的にエディットし直しました。そうやってできたひとつひとつの歌のラインに対して、ミックスのときに細かくコンプやEQをかけています。
──アンドロイドに歌わせる歌詞は、AIが生成したものもあるということですが。
渋谷 ただ、2曲は人間が書いたテキストです。ミシェル・ウェルベックの『ある島の可能性』っていう小説の中から、作家自身を思わせる主人公が書いたねじれたラブレターを歌わせているのと、もうひとつはヴィトゲンシュタインの遺作『確実性の問題』から引用しています。
──それ以外のAIに歌詞を生成させた曲について、具体的にはどういうやり方で行ったのでしょうか?
渋谷 二通りのやり方があって、1つは“この曲はこういうコンセプトをこういう状況で歌う”というプロンプトをGPTに与えて歌詞を生成するやり方。もう1つは曲のタイトルがあって、それに入る声明をお坊さんと選んで、その声明のテキストを英訳したものをGPTに学習させて、その声明と対になる歌詞を生成するやり方。だから、歌詞の意味的には声明とアンドロイドの歌は呼応しているんです。
──昨年、恵比寿ザ・ガーデンホールでアンドロイド・オペラを上演した際は、高野山の僧侶たちがステージに上がり声明を生で披露していましたが、今回のアルバムに声明は入っていないですよね。
渋谷 今回はすべて人工的という世界観を強調したかったので、アンドロイドだけにしました。声明が入ったバージョンもいつかリリースしたいんですけどね。
──クレジットに東京大学教授の池上高志さんによる“Text-to-Note”とありますが、それは何のことでしょうか?
渋谷 「On Certainty」で使ったんですが、テキストから音階とかフレーズを生成するText-to-Noteというプログラムがあって、池上さんに協力してもらって使ったんです。だから半分僕の作曲じゃないみたいなところがある。生成したフレーズをオーケストラの各楽器にはめてみたら、マーラーのレコードが壊れてループしているみたいな感じになって。これは面白いなと思って断片的に使ってはエディットしてみたいな感じで使いました。
──ある種、一番オーケストラっぽい曲に仕上がっていますよね。
渋谷 そう、プログラムで作った曲が一番19世紀末的という。だからあの曲をステージでやるときは僕もステージからはけて、アンドロイドとオーケストラのリサイタルみたいにしています。
オーケストラはすべてソフトに差し替えた
──今回のアルバムは、最初はアンドロイド・オペラとして上演した生演奏をもとに作るはずだったのが、オーケストラの音をすべてソフトウェア音源に差し替えたとのことですが、それはなぜでしょうか?
渋谷 2023年にパリのシャトレ座でやったアンドロイド・オペラの公演をライブ・レコーディングしたんです。なので最初はライブ盤を作ろうと思っていたんです。それでピアニストのフランチェスコ・トリスターノに紹介されたフランソワ・ボーランっていうフランス人のエンジニアとパリのスタジオに入ってミックスを始めたんですけど、どうやっても満足できるものにならなくて……電子音や合成音声に対してオーケストラの演奏やピッチがあまりにも人間的というか甘かったんです。なので補強が必要だなってことで、僕がもともとスコアを書くのに使っていたAVID Sibeliusからオーディオとして書き出したオーケストラ音源を足してみたら結構良くなった。それでもっといい音はないのかって探したら、SPITFIRE AUDIOのBBC Symphony Orchestraといったライブラリーがすごく良くて。びっくりしてフランソワに聴かせたら“人間を排除してやり直そう”っていう話になったんです。フランス人は人間が好きだし人工的なことが大嫌いなはずなのに(笑)。それで生のオーケストラを全部SPITFIRE AUDIOに差し替えました。それでアーティキュレーションをもっと細かく書き込んでいったりしました。
──ソフト音源のアーティキュレーションは、DAWで細かく付けていったのでしょうか?
渋谷 いや、オーケストラのアーティキュレーションについてはDAWは使わず、Sibeliusでやりました。その方がオーケストラ的な抑揚が付けやすかった。あと当たり前ですけど、Sibeliusだと譜面で出てくるのがいい。オーケストラでうまくいってる響きってスコア全体の図柄で分かるんです。
──そうやって作り直したオーケストラ・パートを最終的にはどう扱っていったのですか?
渋谷 生のオーケストラと一緒です。各パート……例えばフルート1、フルート2とかひとつずつオーディオとして書き出して、フランソワのスタジオでミキサーに立ち上げ、1パートごとにコンプやEQしてアナログ卓でミックスしていったので、手間的には人間のオーケストラをミックスするのと変わりません。あとアーティキュレーション的に足りないところがあったら、フェーダーを手で動かして録音したり。
──DAW上でボリューム・カーブを描くのではなく、あえて手でミキサーのフェーダーを動かしたのですか?
渋谷 そうです。スタジオでのリアルタイム感というか、ハード・ディスクで完結しないようにしたかった。完全に人工的な世界の中に、破れ目と言うか切れ目として人間の手フェーダー、しかもそれを作曲家自身の手で入れるという。
──今回のオーケストラの音は、言葉は悪いかもしれませんが、“ちゃんと死んでいる音”の感じがしました。吹き込まれているのは作曲者の生命だけで、演奏者はみんな死んでいる感じ……オペラという形式、オーケストラという手法を借りながら、今までに全くない音楽、新しい音楽が立ち上がっているように聴こえました。
渋谷 すべてが終わった後の世界で、人間だか機械だか分からないオーケストラとアンドロイドが演奏しているみたいなイメージですよね。そこにたまたま残された僕が居てピアノを弾いている。だから世界の終わりに対峙する人間のメタファーとして作曲者の僕がいる。“人間は私だけ”っていうのがこのアルバムのキャッチ・フレーズなんです。
ラシャド・ベッカーのマスタリングは天才的
──ピアノはどこでレコーディングを行ったのですか?
渋谷 フランソワのスタジオにSTEINWAYを入れてもらって録りました。フランソワはピアノを録るのがすごく上手で、フランチェスコのピアノ・ソロもそこで彼が録っているんです。ただ、今回はスケジュール的に1日で全8曲のピアノ録りをしなくちゃいけなくて、気が狂うかと思いました(笑)。
──いい音のピアノでしたね。
渋谷 DSDではなく24ビット/96kHzのPCMで録ったんだけど、粒立ちもすごく良くていい音ですよね。
──アルバムの最後に「Scary Beauty (Vocal and Piano ver.」というピアノとアンドロイドだけによる演奏が収録されています。テンポ変化もあり、アンドロイドと渋谷さんとで呼吸を合わせて演奏しているように聴こえましたが、実際はどうやっているのですか?
渋谷 まずアンドロイドのボーカル・データを作って、それに全部クリックを入れたんです。途中のBPMチェンジもちゃんとクリックがあるので、それを聴きながら僕が後からピアノを弾きました。あのバージョンをアンドロイド・オペラ上演時に演奏すると、“一番良かった”という人が多くて……オーケストラのスコアをこんなに頑張って書いているのにね(笑)。なので、アルバムにボーナス・トラック的に入れてみました。
──このアルバムには合成音声やソフトウェア音源のオーケストラ、そしてピアノ以外に、シンセによる電子音もかなり入っていますね。
渋谷 そうですね。MOOG Moog One、SEQUENTIAL Prophet-5が多かったかな。両方とも自分にとっては“生のシンセ”って感じで、情報量も多い本物の音ですよね。アンドロイド・オペラのせいでオーケストラとずっとやってますけど本当はシンセのアルバムももっと作りたいんです。ただ、耳がオーケストラとか楽器の音に慣れてくると、シンセの中でもこの音は本物とか偽物みたいに生理的に判断しちゃう。最近だとMELBOURNE INSTRUMENTSのNinaっていうシンセもすごくいいです。「The Decay Of the Angel」の前奏で“シュワーン”って旋回している音がNinaで、ミックスのときにスタジオでオーバーダブしました。パンニングが頭の後ろを通る感じであり得ない良さでした。
──電子音以外にもパーカッションやドラムなどリズム系の音色もところどころに入っていますが、それらはどんな音源で?
渋谷 SPITFIRE AUDIOやNATIVE INSTRUMENTS Kontaktのライブラリーだったり、あとROLAND TR-808も使っています。自分のスタジオのモニター・スピーカーをGENELEC The Onesの8331Aに変えたから、ローエンドやハイエンドの解像度が上がりました。CD制作だけだったらこれまで使っていたMUSIKELECTRONIC GEITHAIN RL906で十分素晴らしいんだけど、劇場作品とかインスタレーションはThe Onesのほうが作りやすいですね。
──今回の作品はオーケストラ作品でありつつ、電子音やリズム系のサウンドが見事に融合したサウンドになっています。
渋谷 一聴するとオーケストラ・アルバムなんだけど、電子音楽としてとらえるとかなり新しいことができたと思う。だからマスタリングもあえてラシャド・ベッカーにした。ローレル・ヘイローとかカテリーナ・バルビエリのマスタリングを手掛けている人で、ローレルはオーケストラ的なものを使い、カテリーナはモジュラーを使うけどどちらもすごくオーガニックで同時に人工的。ラシャドはそういうテクノロジーとオーガニックのものの境界を一体にするような仕上がりにするのがうまいなと思って頼みました。
──実際、彼のマスタリングはどうでしたか?
渋谷 ちょっと天才的な勘所がある人だと思いました。ミックスダウンした音源をステムで渡したらマスタリングでピアノのレベルをすごく上げてきた。そもそもフランソワには“ピアノ・コンチェルトみたいにはしないで”って言って、ピアノをオーケストラとなじむようにミックスしてもらっていたんだけど、ラシャドはマスタリングに際して“ピアノのトラックをパラでくれ”って言って、レベルを変えてきた。だから通常のマスタリングの枠を超えているけど結果は良かった。
ながら聴きできない作品への反応が楽しみ
──今回のアルバムはアンドロイド・オペラの集大成でありつつ、“渋谷慶一郎ベスト”的な側面もあると思いました。
渋谷 そうですね、凡庸なポストクラシカルを蹴散らしてやろうっていう気持ちもあったし(笑)。現代は曲として頭に残らないものが多いというか、それがトレンドになってますよね。世の中全体が視覚文明化してるから、言わばすべてドローン化している。ストリーミングで聴かれることがメインになってから“ながら聴き”しやすいほうが再生回数を稼げるということで、印象的な曲が減って、音楽のパワーが落ちちゃってる。音楽は映像に対しても生活に対しても邪魔にならないほうがいいっていう傾向はつまらないなとは思っています。
──そういう意味では今回のアルバムはBGMにはできない、すごく強度のある曲が並んでいます。
渋谷 ながら聴きできないアルバムに、どれくらい反応する人がいるかっていうのは、楽しみであると同時に不安でもありますけど。
──映像中心的な時代になっているからこそ、2024年末に渋谷さんが紀尾井ホールで行ったコンサートは興味深かったです。目に入ってくる要素がミニマムで、それでいてきっちりコンポジションされ、なおかつそこから何も動かない……動いてるのは音だけ。
渋谷 そう、あのコンサートでの建築家の妹島和世さんによるセットもアーティストの和泉侃さんによる香りも当たり前だけどステージで一切動かない。世の中があまりにも視覚的、同期的なドーパミンにあふれているから、何も動かないっていうのが逆に新鮮だったんでしょうね。あと、建築家と一緒になって公共空間に音楽をインストールするようなプロジェクトは手応えがあって、自分にとってひとつアウトプットが増えたなと思っています。アウトプットの種類が増えることは音楽家が生き残るには有効です。リリースとストリーミングだけだとBGMとして何回再生してもらえるかみたいなしょうもない傾向になりやすいから。
──アンドロイド・オペラをアルバムとしてまとめることができ、これからはどんなプロジェクトを予定しているのでしょうか?
渋谷 NHKが100周年記念で製作している『臨界世界』っていうかなり過激なドキュメンタリー・シリーズの音楽を担当しました。NHKのスタジオでストリングスやピアノを録って、ZAKさんにミックスしてもらって、スチュワート・ホークスにマスタリングしてもらってます。クラシカルな編成に電子音が入る内容ですが、それぞれのバランス、さらには映像とのバランスを結構試行錯誤しました。それ以外にもオペラの新作も動きはじめているので、楽しみにしていてください。
Engineer Interview:フランソワ・ボーラン
人間らしいコラボレーションが生んだ、人間離れしたプロジェクト
──渋谷さんと仕事をすることになったきっかけを教えてください。
フランソワ 2018年ごろ、友人であるフランチェスコ・トリスターノに招かれ東京のソニーミュージック・スタジオでアルバム『Tokyo Stories』のレコーディングに行ったときが最初の出会いでした。渋谷さんもそのプロジェクトのゲストの一人だったんです。
──今回のアルバムのミックスに使用したスタジオはどこですか?
フランソワ Hinterland Labという私のスタジオです。AVID Pro Toolsを使用していますが、D.W. FEARN、MANLEY LABORATORIES、TUBE-TECH、API、SUMMIT AUDIO、STUDERなどのアナログ機材も備えています。モニター・スピーカーはDYNAUDIO M2でアンプはBRYSTON 4B SST2と組み合わせています。ほかにもA2TというフランスのTAYLOR MADE SYSTEMと共同開発した小型モニターも使っていますし、GENELECの7.1.4chシステムもあります。
──今回のアルバムは当初生のオーケストラの音をもとに構築する予定だったのが、納得いく音にならなかったそうです。その原因はどこにあったと思いますか?
フランソワ まず、ライブレコーディングによる各マイクの被りが多くありました。通常良いことなのですが、今回はアンドロイドなど舞台機材が多いステージだったので影響が大きかったのです。さらにこのプロジェクトは野心的かつ複雑なもので、渋谷さんが書いた楽曲の中にはオーケストラで演奏するには極めて難しいものがあり、期待通りの音になっていないということもありました。加えて、照明やアンドロイドが発するノイズがピアニッシモの瞬間に目立つこともありました。それで差し替えるのが最善の選択だという結論に至りました。
──各楽器ごとに書き出されたソフトウェア音源をどうミックスしていったのですか?
フランソワ Pro Toolsに30種類ほどのステレオ・ステムをインポートしました。渋谷さんがスコアを書いた際の構成がそのままステムになっている感じで、おかげで楽器間のバランスを細かく調整できました。
──ミックスにあたってはアナログ卓を使ったとのことですが。
フランソワ Pro Toolsのオートメーションも活用しつつ、アナログ機材は主に音色の調整に使いました。最初にPro Toolsで作業し、グループ化した音をアナログ機材に送り、再びPro Toolsへ戻す流れです。この方法なら、異なる段階でボリュームやエフェクトの調整が可能になります。オートメーションは便利ですが、最終的には耳で聴いてフェーダーを操作するほうが確実なこともあります。なのでAVIDの古いコントロール・サーフェスを使い、画面を見ず作業することが多かったですね。
──ソフトウェア音源に施したエフェクトを教えてください。
フランソワ 私は必要に応じてステムごとにプラグインを使用することが多いです。FAB FILTER Pro-Q 3やUAD Pultec EQP-1A、MDWなどを使い、その後ステムをグループ化しアナログで処理します。例えば、ストリングスは全体をまとめてMANLEY Stereo Variable Mu Limiter Compressorを通して一体感を持たせつつ音色を加え、さらにMassive Passive Stereo Tube EQを使って低域の存在感、中域の空間感、高域の広がりを調整しました。
──アンドロイドの合成音声にはどのような処理を行ったのでしょうか?
フランソワ メイン・ボーカルのステムをMOOGのペダルMF-101 Lowpass Filterに通し、色彩豊かな成分を追加しました。ハーモニーのステムには別のEQとコンプを施し、リバーブ、ディレイ、ハーモナイザーなどのエフェクトを曲に応じて追加しました。プラグインも使っていましたが、OTO MACHINES BimやBamなどのペダルやEVENTIDE H3000も使いました。最終的にすべてのステムとエフェクト・バスをTUBE-TECHのサミング・ミキサーSSA2Bに通し、D.W. FEARNのコンプレッサーVT-7でまとめています。
──渋谷さんのピアノはどんなマイクで収録したのでしょうか?
フランソワ 主にSANKEN CU-44Xのペアを使用しました。透明感がありコンサート・ピアノが時折発する強い音圧にも耐えられる点がとても気に入っています。もう一組CLOUD MICROPHONESのリボン・マイクをハンマーの上に配置しました。この2組のマイクの組み合わせにより、ピアノの音をオーケストレーションと自然になじませることができたと思います。
──生でないオーケストラとアンドロイドの歌というアルバムでしたが、作業は大変でしたか?
フランソワ 初めてアンドロイド・オペラを観たとき、私は感動し、同時に困惑もしました。ですが、作業を進めるうちにその世界観に慣れ、渋谷さんの作る独特なパラレル・ワールドを理解していきました。彼が求める要件を満たせるか最初は不安もありましたが、作業を始めたらお互いに理解も深まり、良いコラボレーションになりました。渋谷さんは音楽のパートごとにフィーリングやビジョンを明確にしながら、私はそれらを技術や機械的な言語に変換していくようなやり取りでした。こうしたとても“人間らしい”コラボレーションが、とても“人間離れした”プロジェクトを生み出したというのは面白いことだと思いました。
Release
『ATAK027 ANDROID OPERA MIRROR』
渋谷慶一郎
(ATAK)
Musician:渋谷慶一郎(prog、syn、p)
Producer:渋谷慶一郎
Engineer:渋谷慶一郎
Studio:ATAK TOKYO、ATAK PARIS、Hinterland Lab