株式会社エンタミナの田口です。
「iPhoneでマルチカム撮影したデータをクラウドで共有して、収録しながら編集できるってよ!」という噂を聞きつけた。「え?どういうこと?」って疑問符に溢れる中、編集部より機材一式をお借りして、いざ実証実験!
iPadを母艦にiPhoneでマルチカム撮影
まずは、4台のiPhoneに「Blackmagic Camera」をインストール。
収録フォーマット、フレームレート、シャッタースピードなどの各種設定に加えて、使用するレンズを選択したり、ISO感度やホワイトバランスなども細かく追い込める。その操作感はまるで一眼カメラのよう。本アプリはフル機能を無料で使えるというから驚きだ。
オーディオは、iPhoneの内蔵マイクの他、Bluetoothマイクなど外部機器も選択できる。フォーマットはリニアPCMの他、IEEE Floatにも対応という充実っぷり。
Blackmagic CameraをインストールしたiPhoneは、iPadとペアリングすることでリモートコントロールが可能になる。iPad(にインストールしたBlackmagic Camera)から同一ネットワーク内のiPhone(にインストールしたBlackmagic Camera)を自動検知してチェックを入れればペアリング完了。コントローラー端末には、各カメラの映像がマルチビュー表示される。
ペアリング時に「Synchronaize Record」をONにすると、レコーディングの開始/終了を一括でコントロールできる。また「Link Controls」をONにすると、カメラ側の各種設定を一括で変更が可能に。
サンプル動画1
サンプル動画2
iPadを母艦にiPhoneをリモートコントロールして行うマルチカム撮影は「めっちゃ簡単&便利!」って絶賛しつつも「いや…でも、ここまでは他のアプリ(例えばSwitcher Studioとか)でもできるよな…」なんて思った矢先、冒頭の「撮影したデータをクラウドで共有」という一節を思い出す。
撮影した動画ファイルをクラウド管理
Blackmagic CameraからBlackmagic Cloudにサインインすると、記録メディアのアップロード先にクラウドストレージが追加された。クラウドへのアップロードは、高画質なオリジナルファイルに加えて(編集用途の軽量版の)Proxyファイルのみを選択することもできる。
アップロード後、PCブラウザでBlackmagic Cloudストレージにアクセスすると、撮影した動画ファイルがズラっと一覧表示されて個別にダウンロードもできる。
SDカードやSSDなどの外部記録メディアを用いた撮影~編集のワークフローは、メディアから編集環境への動画ファイルの移動/コピーに時間も手間もかかる上、メディアの紛失や(移動/コピー中の)データ欠損などのリスクをはらんでいる。撮影後にネットワーク経由で即時アップロードできるBlackmagic Cloud」ストレージを用いることで、そうしたリスクも軽減できるだろう。
また、プロジェクト機能を用いることで「複数アカウントで動画ファイルにアクセス」もできる。(ネットワーク依存度は高まるけど)チーム連携と作業効率は飛躍的に向上するだろう。
iPadを母艦にiPhoneをリモートコントロールしながらマルチカム撮影してクラウドで動画ファイルを複数人で共有!という近未来感溢れるワークフローにワクワク感が高まった頃、冒頭の「収録しながら編集できる」という一節を思い出す。
カメラで撮影しながら編集ができる?! ライブシンク機能
この新機能は、これまで撮影~ビデオ編集の経験や知識があればあるほど「え?どういうこと?」となりがち。「ビデオ編集は撮影の後に行う」がセオリーの中、その常識を一変させる新機能が「ライブシンク機能」だ。実際にトライしてみよう。
まずは、iPhoneにインストールしたBlackmagic Cameraの設定画面で「Live Sync」をON。
次に、ビデオ編集ソフトウェア「DaVinci Resolve」でBlackmagic Cloudにサインインして、新規クラウドプロジェクトを作成。ここでリモートカメラのアクセスを許可する。
Blackmagic Cameraのアップロード先を(先ほど作成した)新規プロジェクトに設定してカメラ側で撮影を開始するとDaVinci Resolveのメディアプールに撮影中の映像と音声ソースが読み込まれる。
って、まるでライブ配信中のビデオスイッチャーに映像と音声信号がインプットされるような状態。撮影中の動画ファイルを時間軸を遡って再生したり、タイムライン上に並べてビデオ編集作業をカメラで撮影した状態のまま行えてしまう。
Blackmagic Cameraのタイムコード表示を、「時刻/TOD(Time of Day)」に設定することで、iPhoneの内蔵時計をタイムコードに使用することもできる。これにより(多少のタイムラグはあるけど)複数台のカメラをマルチカムソースとして扱ったり、リプレイ再生機能を用いて簡易的なカメラスイッチングで外部出力もできる。
撮影を行う「Blackmagic Camera」と、ビデオ編集を行う「DaVinci Resolve」は、インターネットに接続(というかBlackmagic Cloudに接続)されていれば、お互いが離れた場所でもOK。北海道と沖縄で撮影中の映像と音声を、愛媛や埼玉で受信してビデオ編集を同時に行う、といった運用も可能になる。
ビデオ編集とライブ配信の垣根を超える?! 新たなワークフローの創造
思い返せば四半世紀以上、PCを用いた動画制作のワークフローは「撮影後に編集する」という点で代り映えがなかった。今回ご紹介した「撮影しながら編集できる」ライブシンク機能は(これまでの常識が一変しちゃう)新たなワークフローを創造する。
例えば、音楽ライブ。
会場内にいる一部のお客さんのスマートフォンにBlackmagic Cameraをインストールしてもらい、ライブ中に撮影した動画ファイルを全国各地の会場外の人たちがBlackmagic Cloud経由で受信して(ほぼリアルタイムに)ビデオ編集して「推しのダイジェストをSNSで公開!」なんてこともできるかもしれない。
もちろん、セキュリティ面の課題をクリアする必要はあるけど、「カメラマン」と「編集マン」を観客に開放しちゃうエンターテインメントは、これまでの音楽ライブとは次元の異なるユーザー体験を提供できるだろう。
「撮って出し」を超越する、「撮りながら(編集して)出し」の可能性
もちろん音楽ライブのみならず、ビジネス系セミナーやカンファレンスイベントなどに応用することで、企業のブランディング活動やマーケティング戦略の新たな一手になりえる。それこそ「撮って出し」を超越した「撮りながら(編集して)出し」。それこそ、タイムリーな話題を共有し合うSNS時代にこそ最適なアプローチかもしれない。
あくまで個人的な意見にはなるけど、メーカー側が提供してくれる(このような摩訶不思議的な)新機能は「レガシー機能の代替」として捉えてしまうと、やれ「スマホ画質じゃ…」とか、やれ「タイムラグが…」とか懸念点ばかりが気にかかる。しかし、これまでの枠組みにとらわれず「新たな仕組みづくり」に目を向けると、コンテンツづくりの可能性の幅をグイッと広げるキッカケになる。
今回紹介した新機能は、コンテンツづくりに従事する私のようないちディレクターに対して「さあ、どう活用する?」とメーカー側に問われているようで、新たな可能性と未来にワクワクする。