今やライブ・ストリーミングは、スマートフォンさえあれば誰でもできるものになった。だが演奏を配信する上で、音質にはこだわりたいところだろう。ここではレコーディング/ミックスだけでなく、ライブ配信も多く手掛けているstudioforestaの森田良紀氏がライブ・ストリーミングの方法や必要な機材を解説。より良い音で演奏を届けるためのコツを語っていただく。
Photo:Hiroki Obara
スマートフォンからの放送には配信向けオーディオI/Oが便利
筆者のスタジオであるstudioforestaではレコーディングやミックス以外にライブ・ストリーミングも手掛けており、moumoonや大森靖子をはじめ、さまざまなアーティストの配信を行ってきました。今回はこれまでの配信経験を元にライブ・ストリーミングの方法についてお話したいと思いますが、執筆時点ではスタジオに人が集まること自体が難しい状況となってしまっています。いつか事態が収束した後、スタッフが集まって配信ができる状況になればぜひ試してもらえればと思います。また、自宅からの配信についても触れていますので、弾き語りなどの配信を行う方の参考にもなれば幸いです。
ライブ・ストリーミングが行えるサービスには、YouTube Liveやニコニコ生放送、LINE LIVE、Facebook Liveなど、いろいろとあります。それぞれで画質や音質のクオリティが違ったり、スマホでの視聴に向いたものなど、特徴はさまざまです。しかし、配信に必要な機器やソフトウェアなどに大きな違いはありません。それらを紹介していきましょう。
現在では、APPLE iPhoneなどのスマートフォンのみでもライブ・ストリーミングが可能です。シンガー・ソングライターの弾き語りなどでよく使われていますね。しかし、カメラはスマホ内蔵でよいとしても、音は内蔵マイクだけだとあまり良くありません。その場合はスマートフォンに対応したオーディオI/Oや外部マイクロフォンを使うとよいでしょう。例えば、ROLAND Go:LivecastやTASCAM MiniStudio Creator US-42、外部マイクではSHURE MV88などが挙げられます。音楽制作用のオーディオI/Oでも配信は行えますが、Go:LivecastやMiniStudio Creator US-42など配信向けに作られたものには、ライブ・ストリーミングで役立つ機能が搭載されていることも多いです。筆者が所有しているGo:Livecastは48Vファンタム電源供給に対応したマイク入力を1系統備えた本体と専用アプリがセットになっており、そのアプリ上からTwitCastingやYouTube Liveなどのプラットフォームに対して配信が行えます。本体のボタンを操作することで、スマホ内の動画や写真などの挿入、BGMの再生などが可能です。また、美肌モードなどのカメラ・フィルターも内蔵。Wi-Fiを使って2台目のスマホをつなげば、2カメ配信にも対応します。マイクにはリバーブをかけることもできるので、歌などに有用でしょう。スマホを使ったシンプルな配信環境を作りたい方は、ぜひこういった外部インターフェースを導入してみてください。
Go:Livecastをデジマートで探す
MiniStudio Creator US-42をデジマートで探す
複数台のカメラを使用しスイッチャーで映像を切り替える
前述のようにスマートフォンだけでも配信は行えますが、画質や音質などの調整は細かくできません。また、スマートフォンのカメラは年々性能が上がっているとは言え、別途配信用のカメラを用意した方が質感の良い映像が得られます。そのように、よりクオリティの高い配信を求めるのであれば、カメラやスイッチャー、ミキサー、エンコーダー、コンピューターといったものが必要です。紹介していきましょう。
最近ではミラーレス一眼カメラを使った動画撮影が多いですが、ライブ・ストリーミングの現場でも同じです。studioforestaではPANASONIC Lumix GH5とLumix GH4を主に使用しています。理由としては画の質感が良いということと、長時間の録画が連続して可能ということが挙げられます。ミラーレス一眼カメラは30分で録画が止まってしまうものが現状多いのです。もちろん、生配信において各カメラの映像を録画しておく必要はありませんが、撮っておけば後から編集をしてそれをパッケージしてリリースするということもできます。ライブ・ストリーミングでのマネタイズ方法の一つとして取り組んでいることです。
固定のカメラ1台で撮影するときは必要ありませんが、バンド編成などであれば複数台を使って、放送中に適宜映像を切り替えていくことも必要になります。そのときに必要なのがスイッチャーです。各カメラのアウトをスイッチャーに入力し、スイッチャーのボタンを押してカメラの切り替えが可能。studioforestaでは主にBLACKMAGIC DESIGN Atem Television Studio HD、コントローラーのJUNS LiveCommandを使用しています。
ちなみに、筆者が配信を行うときはスイッチャーの前段にBLACKMAGIC DESIGN Atem Studio Converterというものを入れています。通常、カメラからの映像はHDMIや同軸ケーブルで受け取ることが多いですが、Atem Studio Converterを使えば光ファイバー・ケーブルで接続が可能。100m以上の長距離にも対応できます。また、スイッチャーで作られた映像を送り返したり、カメラマンとのインカム音声やタリー信号をやり取りできるのもポイント。タリーとは、カメラ側のモニターなどに赤枠が付いたり、外部に付けたランプが光ったりして、今どのカメラが配信で使われているのかを示すものです。これがあることで映像のクオリティはグンと上がります。撮影されているアーティスト側はタリーが付いているカメラに目線を合わせて歌うことができますし、カメラマンも自分の映像が使われていると分かれば意識も変わってきます。このシステムはとてもメリットが大きいのですが、大掛かりな機材構成になりやすいのが難点です。もちろん、必須ではありません。
また、これも必須ではありませんが、筆者の場合はスイッチャーの後に映像の色味を調整する機器も用意しています。カメラで撮っている生の画より、少し質感を変えてあげるのです。そうすることで全体の世界観を作っていきます。
現場でのトラブル回避のためマスター・フェーダーを用意
さて、次は音声です。基本的にはスイッチャーに音声入力があるのでそこへ配信したい音声を入力します。大規模な配信であればスタジオやライブ・ハウスの卓から2ミックスをもらいますが、バンド・メンバー自らが配信するときなどは小型のミキサーを使うのもよいと思います。
筆者の場合は、最終的な2ミックスをまずフェーダー・コントローラーへ入れています。使っているのはUMBRELLA COMPANY The Fader Control。いわゆるマスター・フェーダーとして使用しています。このフェーダーが下がっていれば配信先に音は行きません。ラジオと同じで、ここに音量調整のマスターを作るのです。これがあることで、例えば音響卓側のエンジニアが番組の始まる前と終わった後にフェーダーを上げたままだった、などのトラブルを回避することができます。また、演奏中とMCではレベル差が大きいので、そこをケアするためにもマスター・フェーダーは重要です。
マスター・フェーダーを通った後の音はポストプロダクション用のシグナル・プロセッサー、TC ELECTRONIC P2 Level Pilotに入力。ここでリミッターやコンプ、EQをかけ、配信用に音を仕上げています。また、内蔵のディレイを使って音を遅らせています。カメラからの映像は必ず遅延が発生し、そのまま音と組み合わせてもぴったりと合うことはありません。そのため、音にディレイをかけて映像と合わせる工程が必要となってきます。スイッチャーにもオーディオのディレイ機能が付いているものもありますが、筆者はP2 Level Pilotを使っています。
スイッチャーに音を入力して映像と合わせたら、最後に必要なのがエンコーダー。これは配信先に合わせて映像+音データを変換/圧縮(=エンコード)するものです。エンコーダーには、ソフトウェアとハードウェアのものがあり、ソフトウェアではフリーウェアのOBS Studioやプロも使用するTELESTREAM Wirecastなどが挙げられますね。ハードウェアではCEREVO LiveShell Xなどがあります。エンコードにはCPU負荷がかかるため、可能であればハードウェア・エンコーダーか、エンコード用のコンピューターを別に用意した方が安定した配信が見込めます。エンコーダーの設定画面には、配信サービス先で設定されているURL、パスワード代わりとなるストリーム・キーを打ち込みます。これで準備が整いました。エンコーダーと配信サービスの画面で配信開始のボタンを押せば、ストリーミングがスタートします。
ライブ・ハウスではエア感をプラス。圧縮に合わせた音の調整も行う
ここからは配信に向けた音作りについて説明します。筆者が配信を行う場合は、PA卓のエンジニアと筆者という2人のサウンド・エンジニアがいることになります。言うなれば、ミックス・エンジニアとマスタリング・エンジニアのような関係です。配信用に音を最終調整するわけですね。ライブ・ハウスなどからの配信の際、通常のPAミックスではあまり好ましい結果になりません。その会場の外音としては良いのですが、配信として送られる音を聴くと低域の量感が軽く、エア感も無いことがほとんど。そういう場合は、まずPAエンジニアにもう少し低域を上げてもらうなどの要望や、実際に配信される音を聴いてもらうなどの調整をお願いします。ここのコミュニケーションは良い音で配信する上でとても大切です。ほかには、会場にオーディエンス・マイクを立ててエア感を得るようにします。PA卓からの2ミックスとオーディエンス・マイクの音は筆者の方でバランス調整する事が多いので、小型のデジタル・ミキサーを用意する場合もあります。PAの2ミックスとオーディエンス・マイクの比率はピーク・メーター比で5:5くらい。それくらいのバランスでなければ、ライブ感を持った配信用の音として成立しないことが多いのです。デジタル・ミキサーではEQやコンプを使った調整も行い、マスター・フェーダーへと入力します。
配信において、基本的に音はAACという圧縮方式が採られています。エンコーダーのデフォルトのビット・レートは128kbpsとなっていることが多いですが、配信プラットフォームごとに上限は変わります。可能であれば192kbps以上に設定するとよいでしょう。どちらにせよ、圧縮によって音が変化しますので、それに合わせた調整は必要です。例えば、低域……特に超低域と言われる20Hz以下はある程度切ったり、高域は圧縮後に丸くなりやすいため、事前にEQで持ち上げたりすると良い結果が得やすいです。
リミッターやコンプを使ってダイナミクスを抑えることも大切です。今の時代、配信はスマートフォンで視聴する人が多いので、その内臓スピーカーでも聴きやすいようにダイナミクスの調整は必須でしょう。ライブ・ハウスやホールなどでは前述したP2 Level Pilotやデジタル・ミキサーも使いますが、studioforesta内で配信する場合はAVID Pro Toolsでエフェクトをかけています。Pro Tools上でモニター用と配信用のバスを作り、配信用のマスター・トラックには遅延補正をオフにした状態でプラグインをインサート。映像の方が遅延するので、レイテンシーの大きな処理負荷の高いプラグインでも挿すことができます。低域と高域はどうしてもばらつきが出るので、リミッターで全体をガツッと抑えるよりはマルチバンド・コンプを使う方が配信では有効だと思います。
ライブ・ストリーミングの発展のためには配信ならではの価値を見出すことが必要
最終的な音圧感やラウドネス値を気にする方もいるでしょう。筆者はラウドネス値は測っていませんが、VUメーターは見ています。基準値は0dBu=-10dBFSくらいに設定し、針が0を少し超えて張り付かずに振っている程度に音を調整。MC時も同じくらいになるよう、マスター・フェーダーを操作しています。配信プラットフォームとして需要の多いYouTube Liveで、ラウドネス規制がどの程度影響するのかを確認しましたが、配信時は大きな変化はありませんでした。ただしアーカイブは影響を受けてしまうため、もしラウドネス・メーターを取り入れるなら、-14LKFS程度にしておけばよいかと思います。
ライブ・ストリーミングの手法について解説しましたが、いかがだったでしょうか? 新型コロナ・ウィルスの影響で需要が高まったライブ・ストリーミングは、現在では中止となったライブの代わりとして行われていますが、この騒動以前までは配信費用はレコード会社や事務所が宣伝としてバジェットを出すのが主でした。あくまで宣伝の一環なので、お金はそこまでかけられません。しかし、配信場所や映像システム、カメラマンなどのスタッフの費用を考えると、オンラインでの配信と言えどもお金はかなりかかります。もちろん、求めるクオリティによりますが、実はハードルが高いのです。
そういった意味でも、今後のライブ・ストリーミングでのマネタイズはとても重要になってきます。本稿執筆時で音楽業界が窮地に立たされていることもあり、投げ銭などが比較的集まりやすかったりしています。ですがそれは長くは続かないこととしての認識は必要です。継続的な方法としては配信閲覧チケットも一つの方法ですし、アーティストの衣装の服飾ブランドをスポンサーにするなどの工夫をして、配信自体でしっかりと収益が得られるという状況にならなければ、今後ライブ・ストリーミングが定着することはないかもしれません。また、生のライブの代わりではなくライブ・ストリーミングという別のコンテンツとしてとらえ、配信ならではの価値を見つけることも重要です。そうすることで、ライブ・ストリーミングの発展に希望が持てると考えています。