
昨今、「イマーシブビデオ」や「空間ビデオ」というワードが、VRや映像業界を賑わしている。すでに対応するVRカメラやデバイスがローンチされ、関連記事やイベントなども散見するものの、その概念については、混同されがちで、必ずしも正しく理解されていない状況が見受けられる。そこで、この記事では言葉の由来やメディアとしての成り立ちを可能な限りわかりやすく整理しながら、改めて、「イマーシブビデオ」や「空間ビデオ」の定義を考察すると共に、その現状や最新動向についても紹介してみたい。
空間メディアの概要
「イマーシブビデオ」や「空間ビデオ」という言葉が注目されるきっかけとしては、昨年6月に日本国内でも発売が開始されたApple Vision Pro(以下、AVP)の登場が挙げられるだろう。AVPとは、アップルが開発した空間そのものをインターフェースとして利用する空間コンピューティングのデバイスで、VRやAR体験を可能にするコンピューター(アップルM2チップとR1チップを採用)を搭載したヘッドセットである。視線、手、声等で直感的に操作することができ、仕事や娯楽等の利用において、デジタルコンテンツと現実世界を融合した新たな体験をユーザーに提供するものである。

AVPでは2D以外の映像として、Appleが提供する「3Dビデオ」、「空間ビデオ」、「イマーシブビデオ」等の空間メディアの視聴体験が可能になっている。これら3つはvisionOSで体験できるステレオビデオ体験という共通性はあるものの基本的には別物である。
3Dビデオとは、Apple TVやDisney+のアプリを通じて、フラットな画面に奥行きや立体感を感じさせる映像が表示され、3D映画などを劇場で楽しむ感覚で視聴できるフォーマットを指している。AVPlayer等でも再生することができる。
Apple Immersive Videoは、180°の広い視野角を持つ立体視可能なハイエンドのプロ仕様のVR動画である。現在、Appleオリジナルの番組や映画が楽しめるApple TV+(Apple TVアプリのみで利用可能な配信サブスクリプション)には、高品質な実写VR動画コンテンツが多数ラインナップされている。アップルの開発者会議のWWDC 2024では、同社Vision Productグループのヴァイスプレジデントのマイク・ロックウェル氏から、Apple Immersive Videoは、「8K(3D)、視野角180°、空間オーディオ(音声)を実装したAVPのためのエンタメフォーマット」であると紹介されている。
空間ビデオについては、視野角最大90°、iPhone等でも撮影可能なコンシューマー向けのステレオメディアとして位置付けされている。
空間ビデオは公式写真アプリやvisionOS2で追加されたQuickLook frameworkのPreviewApplication APIで再生が可能だ。
AVPでは、使用時に環境のイマーシブ度を調整することができるが、これらの各体験では、いずれもフルイマーシブな表示が可能である。

これらのステレオビデオ体験には、いずれもHEVC(High Efficiency Video Coding/H265)をマルチビュー対応させた「MV-HEVC(Multiview High Efficiency Video Coding)」という動画圧縮フォーマットが用いられている。
そもそもHEVCは、高解像度の映像をAVC(Advanced Video Coding/H264)よりも効率よく圧縮できるというメリットがあるが、MV-HEVCの原理は、左右の似ている画を利用して圧縮をおこなうというものである。
visionOSで体験できるステレオメディアとしては、その他に、「空間写真」、「カスタムビデオ体験」、「インタラクティブ3Dコンテンツ」などが挙げられる。
立体視映像の成立について
人は物体を見たときの両眼視差、すなわち、左右の眼間距離により発生する網膜上の位置関係の異なる結像を検出して脳内で情報処理をおこない、2つのイメージを融合(両眼融合)して立体感や奥行き感を形成する。立体視映像とは、人の両眼視差を光学的、機械的に再現することで、三次元として再構成する手法であり、その基本的な原理は古くから変わらない。立体視映像の仕組みには、アナグリフ方式、シャッター方式、偏光フィルター方式、レンチキュラー方式、ヘッドマウントディスプレイ方式などがある。
AVPの場合、出力画面に片目当たりの解像度が3800×3000ピクセルの有機EL高精細ディスプレイが採用されているため、左右それぞれに高解像度の映像が必要とされている。
ちなみに、人が立体視を成立させる要件は、両眼視差だけとは限らず、それ以外にも、
- 運動視差(人と対象の相対運動により生じる網膜像の変化)
- 陰影、コントラスト、反射
- オブジェクトの大きさ
- 遮蔽(Occlusion/手前の物体が奥の物体を遮ること)
といった要素も関係している。
また、立体感には個人差があり、人口の数%の人は両眼立体視ができないといったデータもある。その一方、ステレオグラム(ステレオ写真)を見る際に、一切、デバイスを用いずに交差法、平行法等の方法により、裸眼立体視を可能とする視覚能力を持つ人もいるし、単眼でもある程度の立体感を得られる場合もある。
このように立体視とは、大変デリケートな機能であるが、AVPの空間撮影では後述する通り、フォーマットに空間メタデータを付加するなど、ユーザーが快適な立体視の体験が得られるような工夫や配慮がなされている。
次に、本記事のテーマである「イマーシブビデオ」と「空間ビデオ」について詳述する。

イマーシブビデオとは何か?
「イマーシブビデオ」の「Immersive」とは「没入型」、「没入感のある」と言う意味の英語であり、VRの世界では、予てより「Presence(プレゼンス/実在感)」などと共に、重要なキーワードとして、しばしば用いられてきた。
実際のところ、アドビの動画編集アプリのPremiere ProやAfter Effectsでは、VR動画のサポートを開始した2017年当初から現在にいたるまで、ビデオエフェクトやビデオトランジションの項目に、「イマーシブビデオ」という機能が実装されている。そこでは、360°VR動画(2D/3D)や180°3D動画のいずれのフォーマットも「イマーシブビデオ」としてサポートされている。

VRビデオというメディアが世に登場した2010年代の中頃には、視野角は360°が当たり前のものとされていた。ところが、2016年にGoogleより提唱されたVRプラットフォーム「Daydream」で採用されたフォーマットである「VR180」の登場により、前方180°に限定して取り回しも良く、従来の映画やドラマの撮影手法やストーリーテリングも踏襲しやすい180°3DVRの表現が注目されるようになってきた。
360°映像には、空間を丸ごとキャプチャできるという、フラットな2D映像にはない強力なアドバンテージがある。また、VRとしての利用はもちろんのこと、ポスプロ編集時にリフレームを施すことで、全体から一部分のアングルをクロップしたり、カメラワークをつけたりするなど、2D映像としても柔軟に活用できるというメリットがある。
一方、VR180にも、立体感と没入感を併せ持った魅力があり、後方のアングルが不要の場合、前方に集中した形でVRコンテンツを成立させることができる。どちらも従来の映像にはない特性があるから、用途や表現の方向性に応じて、適宜、使い分けることが肝要であるものと考える。360°と180°のVR動画に対応しているプラットフォームとしては、YouTube VRやMETA Quest TV、DEO VR等が存在する。
因みに、WebブラウザからYouTube上のVR動画を2D視聴する時、最初に表示される範囲は「マジックウインドウ」と称され、元データが3DVRの場合、左目の映像が利用されている。
筆者は、2017年 Google×YouTubeの国際的プロジェクト「VR CREATOR LAB」でメンターを担当しているが、当時はVR180のコンテンツ制作には、主に最大解像度が6KほどのZ CAM K1 ProというVRカメラが利用されていた。その他、LenovoやInsta360、Kandaoなどを中心に、コンシューマー向けのVR180対応のカメラが発売された。

現在では、180°3DVR映像に対応する代表的なカメラシステムとしては、最大8K撮影が可能なキヤノンEOS VR SYSTEMのRF5.2mm F2.8 L DUAL FISHEYEと対応カメラ(EOS R5 Mark IIやR5 C他)。そして、最大4K撮影(専用アプリEOS VR Utilityからの書き出しは、8K出力が可能)のRF-S3.9mm F3.5 STM DUAL FISHEYE(180°内140°)+対応カメラ(EOS R7やR50 V他)などが挙げられる。
後者のRF-S3.9mm F3.5 STM DUAL FISHEYE+対応カメラの場合は、視野角180°のフォーマット内で140°の3DVR動画を作成できる。140°の視野角は、没入感が若干、減少する代わりに、撮影時のスタンドの映り込み等の不要物の映り込み回避や視聴者の注目を主題となる被写体に向けやすいなどのメリットがある。


2016年の所謂、VR元年以降、GoogleやYouTube、Meta(Facebook)、アドビ等を始めとするプラットフォームやソフトウェア界隈では、VR180や360°VR動画(2D/3D)に言及する際、「Immersive」や「Immerse」、「Immersion」といった「没入」を表すワードが多用されてきた。このような経緯を踏まえれば、180°や360°のいずれのフォーマットも、広義においては、「イマーシブビデオ」に含まれるものと考えられる。
ただし、現在、イマーシブビデオというカテゴリーを指す場合には、主に「高解像度・高品質の180°3DのVR動画」を連想する場面が多くなっていることも事実である。
また、昨今では「イマーシブ」というワードは、米ラスベガスの巨大なドーム型のLEDシアター「Sphere」や、東京国立科学博物館やイマーシブ・フォート東京、西武園ゆうえんちの「イマーシブシアター」のように、VRヘッドセット等のデバイスを用いない没入型視聴やエンタメ体験の場でも用いられている。
Apple Immersive Videoについて
そのような状況の中、2024年のAVPの発売と共に、Apple Immersive Videoが登場した。Apple Immersive Videoは、基本的にApple TV+にラインナップされているAVPのための高品質なプロフェッショナル180°3DVR動画コンテンツである。それでは、Apple Immersive VideoとVR180では、何が違うのか?
そもそも、VRビデオの領域においては、8K以上の高解像度が要求される場面が多かった訳だが、アップルが要求しているApple Immersive Videoの要件定義は非常に高く、以下の通りである。
- 解像度:16K(片目8K)3D
- 視野角:180°(水平・垂直)
- フレームレート:90fps
- HDR動画
- 空間オーディオ(音声)を実装
動画フォーマットについては、前述の通り、MV-HEVCが使用される。
ただし、当初、Apple TV+で配信されていたコンテンツの中には、8K(片目4K) 60fpsで配信されているものもあった模様だ。


現在、Apple Immersive Videoの唯一の公式対応カメラは、Blackmagic URSA Cine Immersiveである(原稿執筆時点では未発売)。日本では、昨年11月に開催されたInter BEE 2024でモックアップが展示されたが、実際に作動する実機は、アメリカで今年開催されたSXSW 2025やNAB SHOW 2025、また、5月の東京のイベントや韓国のKOBA SHOW等で披露された。
Blackmagic URSA Cine Immersiveは、AVP用のApple Immersive Videoの撮影に対応した両眼16Kのステレオスコピック3Dイマーシブイメージの撮影が可能なハイエンドVRカメラである。
ラージフォーマットのイメージセンサー用に特別に設計された固定式デュアル・カスタムレンズシステムを搭載。イメージセンサーは、AVP向けに片目あたり8160×7200の解像度と16ストップのダイナミックレンジをサポートしている(片目12Kのイメージセンサーを搭載、8K読みだし)。
1つのBlackmagic RAWファイルに、デュアル90fps、ピクセル単位の同期収録がおこなわれる。収録用には取り外し可能な大容量8TBの高性能メディアストレージを搭載。メディアの高速なアップロードやBlackmagic Cloudへの同期用の10GイーサネットとWi-Fiもサポートしている。尚、Blackmagic URSA Cine Immersiveは、空間ビデオには対応しない。現在、予約注文を受け付けており、価格は税込4,998,000円である。

Apple Immersive Videoのワークフローとエコシステム
現在、Apple TV+には、Apple Immersive Videoのコンテンツが多数ラインナップされており、その制作には、主にBlackmagic Designの技術が投入されているものと考えられる。フリーソロ・クライミングなどを扱った冒険ものの「Adventure」シリーズ、視聴者を"一生に一度の旅"に誘う紀行もの「Boundless」、ハワイ諸島の火山や滝などを捉えた空撮旅行シリーズ「Elevated」、動物保護の活動などを扱った自然ドキュメンタリーシリーズ「Wild Life」、アカデミー賞受賞者のエドワード・ベルガー監督によるApple Immersive Video初の脚本付き短編映画「Submerged」、スタジアムへのフリーパス体験ができる「VIP」シリーズなどの多彩な作品が、AVPを通じて視聴できる。
有名バンドをフィーチャーした音楽ライブ「Metallica」などの新作も随時、投入されており、どのコンテンツもアップルがこだわるVRならではの迫力とクオリティーに圧倒される。画質や臨場感については申し分なく、まさに史上最高の実写イマーシブ体験と言えるだろう。


次に、Apple Immersive Videoのポスプロ編集等のワークフローについて紹介していく。
AVPのImmersiveフォーマットの編集、エクスポートを担う機能としては、Blackmagic DesignのDaVinci Resolveのバージョン20に実装され、Blackmagic URSA Cine Immersiveのローンチと共にワークフローが提供される見込みである。
DaVinci Resolveのイマーシブ機能には、以下の内容が予定されている。
- Apple Vision ProでのDaVinci Resolveタイムラインのモニタリングをサポート
- Blackmagic URSA Cine Immersiveで撮影したBlackmagic RAW Immersiveビデオの編集が可能
- パン、ティルト、ロールに対応したイマーシブ・ビデオビューア(2D表示)を実装
- Apple Immersive Video(左右の目)の自動認識でデュアルファイル・ステレオイマーシブ・コンテンツをサポート
- Apple Vision Proでレンダリングされるトランジションをバイパスするオプションを実装
- Apple Vision Proで見るためのネイティブファイルの書き出し

Apple Final Cut ProがAVPのImmersiveフォーマットをサポートするかは、現時点では不明であるが、先日、アップルよりApple Immersive Videoをインポート・整理・パッケージ化するためのApple Immersive Video Utilityというアプリがローンチされている。このツールを利用することで、Macでもライブラリを整理したり、メディアをインポートしてAIVUファイルの作成やコンテンツの確認、再生を管理することができる。


ところで、AVP向けのユーザーのためのイマーシブビデオの共有プラットフォームは、まだ少ない状況だが、Ampliumなど新たなサービスも出現しつつある。Ampliumは、AVP向けの180°・3D・16K映像に対応したイマーシブビデオプラットフォームだ。超高解像度の3Dビデオとハイフレームレート、空間オーディオを活用した配信に対応することで、臨場感と没入感を備えたエンターテイメント体験を実現するべく、資金調達をおこないながら、さらなる開発とコンテンツ制作を進めている。
その他、SapceVibesなどのスタートアップも登場しており、これらのサービスが普及していくことで、クリエイターがVRコンテンツを世界に向けて共有したり、課金システムを備えたビジネスが広がっていく可能性もある。
また、VR動画をAVPのローカル環境で再生するための専用プレーヤーとしては、visionOSのAppストアにMoon Player等のアプリが存在している。


空間ビデオとは何か?
空間ビデオは、英語の「Spatial Video」が語源であり、「Spatial」を「空間」とストレートに翻訳したものである。
「Spatial」という言葉も、「Immersive」同様、VRの世界では以前からよく用いられており、「Spatial Audio(空間音声)」、「Spatial Computing(空間コンピューティング)」などは、VRに馴染みのある方なら聞き覚えがあることと思う。
空間ビデオは、映像に実物大の立体感と奥行き感を与えることで、見慣れたオブジェクトや光景にも新たな視点をもたらす表現だ。Apple Immersive Videoとは異なり、ユーザー自身がスマートフォン等で、気軽に撮影できるコンシューマー向けのメディアとして位置付けられている。
視野角は最大90°とイマーシブビデオより狭く、没入感より立体感を優先したメディアと言える。
現在、Apple Vision Pro自体とiPhone 16シリーズ、iPhone 15 Pro、iPhone 15 Pro Max、そして、キヤノン EOS VR SYSTEM(キヤノン RF-S 7.8mm F4 STM DUALレンズ +EOS R7かR50 V)で空間ビデオの撮影ができる。
iPhoneは空間ビデオを1920×1080ピクセル/30 fps、AVPは2200×2200ピクセル/30 fpsで録画する。
対象のiPhoneは、超広角、広角、望遠の3種のレンズ構成になっているが、空間ビデオや空間写真を撮影する場合は、そのうちの広角と超広角の2つのレンズを利用する。iPhoneを横向きに保持して構えることで、広角と超広角のレンズが水平の基線上に並列し、人間の目と同様のレイアウトになる。この2眼レンズを連動・同期させて撮影がおこなわれる仕組みになっている。
iPhoneの2眼のベースライン(レンズ間距離/基線長とも言う)は、19.24mm程度。AVPの場合は、63.76mmである。
人間の瞳孔間距離(IPD)は、人種や年齢、男女間でも個人差があるものだが、日本人男性の平均値は64mm程度とされているから、AVPで撮影した場合、ほぼ見た目に近い自然な立体感が得られるということになる。一方でiPhoneの場合は、ベースラインが狭く、小さな被写体を近距離で撮影する際に良好な立体感が得られるものと言える。動物や植物に近づいて撮影するなどのユースケースが想定される。
iPhoneの空間撮影では、以下の3点を念頭に置くことが必要だ。
- iPhoneを安定させて水平に保つ。
- 被写体をカメラから約90cmから240cmの位置に配置する。
- 均一で明るい照明を使用する。
iPhoneの空間撮影では、焦点距離の異なるレンズを併用するために、低照度の環境や被写体までの距離が近接する場合、ノイズの発生状態や焦点が一致しないという問題が生じる。そのような時、iPhoneのプレビュー画面上には、「離れてください。」、「もっと明るくすることをおすすめします。動かさないように持ってください。」等のアラートが表示される。また、撮影時は、常にiPhoneが水平に保たれ、レンズ間の基線上に垂直のズレがないことが重要なので、プレビュー画面の「レベル表示」を目安に、水平を合わせ込んで撮影に臨む必要がある。
立体視としての表示・再生はAVP上でおこなうので、iPhoneのディスプレイ上では、常に広角カメラの映像がプレビューされる。
一方、AVPによる空間ビデオの録画中は頭を動かさないように気をつける。シャッターボタンに表示される水準器をガイドにして水平を保つようにする。録画中は、ビューの中央に十字線が表示されるので、AVPの快適な視聴体験のために、十字線が円の外に出ないように注意する。ビデオに激しい動きが含まれる場合、イマーシブビューで表示するときにアラートが表示される。




アップル以外で空間ビデオを公式にサポートしているカメラシステムは、現状、キヤノン RF-S 7.8mm F4 STM DUALレンズ + EOS R7かR50 Vの組み合わせのみである。
RF-S 7.8mm F4 STM DUALは、1つの筐体に2眼のレンズが並列に配置されており、撮影画角は63°、良好な立体感のための被写体までの最適な距離は約15~50cm程度とされている。
撮影したファイルを、EOS VR SYSTEMの専用PCアプリのEOS VR UtilityのMac版に読み込むと、デフォルトの「3D 180°」以外に、「3D Theater」と「3D Spatial(空間ビデオ)」のオプションが有効になる。「3D Spatial」を選択して書き出すことで、空間ビデオに最適化したMV-HEVCのファイルが出力される。「3D 180°」や「3D Theater」は主にYouTubeやDEO VR等の共有プラットフォームに投稿する場合やVRヘッドセットの視聴の際に用いる。
「3D Spatial」のファイルのサイズは、16:9の場合、1472×828。1:1の場合、1180×1180となっている。
EOS VR SYSTEMを用いた場合、HDR PQ対応の広いダイナミックレンジを活かしたり、Canon Logを利用してカラーグレーディングの幅を広げたり、10ビット記録の豊富な色情報を利用することができる。絞りを設定することで、被写界深度によるボケ感を付加するなどの高度な立体視の表現も可能になる。
RF-S7.8mm F4 STM DUALのベースラインは、11.8mmであるから、一般論として、人物やペット、料理や模型等を近接の距離で撮影するユースケースに向いていると言えるが、遠目のオブジェクトやランドスケープを撮影することも、ソフトな立体感の表現としては成立するものと考える。
余談になるが、遠くのオブジェクトの奥行きを捉える場合は、理論上、ベースラインを大きくとる(離す)必要がある。そのトレードオフとしては、オブジェクトの小型化現象が生じることになる。



空間ビデオのファイル形式は、ステレオMV-HEVCビデオである。MV-HEVCファイルは、ステレオビューを片目ごとに1つずつ、別々のレイヤーに保存する構造になっている。
iPhoneで空間ビデオを録画する場合は、広角(1x)カメラでおこなわれた録画が、MV-HEVCファイルの第1レイヤーに保存される。超広角(.5x)カメラからの録画は視野が一致するようにクロップして拡大されて、MV-HEVCファイルの第2レイヤーに保存される。MV-HEVCフォーマットでは、2つのイメージの差分のみが低ビットレートで第2レイヤーに録画される仕様になっている。
iPhoneで録画された空間ビデオをFinal Cut Pro等で編集する際には、広角カメラで録画された高品質なイメージ(ヒーローアイと呼ばれる)を特定した上で、完成したビデオを書き出すときに正しいレイヤーにエンコードすることが重要である。
AVPで録画された空間ビデオについては、両方のカメラによるイメージが同じ品質のため、ヒーローアイを意識する必要はない。
MV-HEVCファイルは、「空間メタデータ」が追加されることが特徴で、その要素としては、
- 投影方式:直線投影(Rectilinear)
- ベースライン
- 視野角(FOV)
- 視差調整
の4種の情報が含まれている。
投影方式(プロジェクション)は、オブジェクトと画像のピクセルの関係を定義するもので、空間写真と空間ビデオでは常に直線投影が用いられる。
ベースラインと視野角は、空間アセットを撮影するカメラの物理特性を説明するものである。視差調整は、ウィンドウの3D表示をコントロールするための情報で、収束(Convergence)や輻輳とも呼ばれ、視差のない平面を空間のどこに配置するかを指定するものである。
視野角が広いと臨場感は増すが、同じピクセル数の中に、より多くのコンテンツが展開するために、角度分解能(装置や機器が空間的にどれくらい細かい構造を識別できるかを定量化するための数値)が低くなる。また、直線投影を使用しているため、90°以上の視野角は(特にエッジ部分において)角度サンプリング密度が効率的でないために推奨されていない。
空間撮影における左右の画像はステレオ補正されている必要があり、光軸が揃っていて、垂直方向のズレがないことが肝要である。

また、iPhone 16には4つのマイクが搭載されており、空間オーディオ(音声)に対応しているので、ビデオ撮影時に音声を3次元的に記録することが可能だ。空間オーディオの場合、動画ファイルに空間オーディオ・コーデックの「Apple Positional Audio Codec(APAC)」として記録される。
XREAL社のXreal Beam Proなども空間ビデオ対応と謳っているが、そこでは、従来のサイドバイサイド(右左)のレイアウトが用いられており、MV-HEVCのファイルとして記録されている訳ではない。
そのような場合、Kandao社が提供している空間ビデオおよび画像コンバーターを利用することで、Kandaoの3Dカメラ QooCam EGO同様、サイドバイサイドのファイルから、MV-HEVCのフォーマットに変換することが可能だ。その変換されたファイルを利用することで、AVPで空間ビデオとして視聴することができる。

AVP上で空間ビデオを再生すると、(仮想的に)実物大に拡大された被写体が表示される。デフォルトでは、「ウィンドウ表示」となり、画面内右上に配置されたイマーシブボタンをオンにすると、フレームのエッジの部分がぼやけて、立体視映像があたかも現実空間に溶け込むような「フルイマーシブ表示」に変更できる。
ここでもイマーシブというワードが用いられているので紛らわしいが、この場合は、空間ビデオの話である。現実の空間上に立体映像を再現することで、ある種の没入感を感じることが可能になるという訳だ。




空間ビデオは、撮影、再生、エンコード、デコードなどについて、APIが提供されており、フォーマットの仕様もプロファイルが公開されている。
AVP以外にMETA Quest 3、VITURE OneとVITURE Proの公式SpaceWalkerアプリで再生することが可能であるが、使い勝手や体験の印象は、AVPとはいささか異なるものとなっている。
VRヘッドセット以外にも、ARグラスやソニーやLooking Glass等の裸眼立体視が可能な空間ディスプレイ(Spatial Reality Display)などへの利用や応用も考えられる。
空間ビデオのワークフローとエコシステム
空間ビデオは、AVPで撮影して、その場で再生して楽しむことができる他、iPhoneから撮影した場合は、Air Dropで、AVPにスムーズに共有することができる。アップルデバイスでは、通常の写真や動画のように、「写真」アプリで表示や共有することができる(同じApple AccountにサインインしていてiCloud写真をオンの場合)。

その他、コンテンツをグローバルに共有・公開したい場合は、クリエイター向けの動画共有プラットフォームのVimeoを利用することになる。
Vimeoは、これまでにも高解像度動画や360°動画などの先進的なフォーマットに、いち早く対応してきたプラットフォームであるが、空間ビデオをサポートするAVP向けのVimeoアプリについても、昨年10月に提供を開始している。この無料アプリは、visionOS App Storeからダウンロードが可能だ。
iOS、iPadOS、AndroidOS、MacOS向けのVimeoアプリ、Vision Pro、およびVimeo.comのウェブサイトから、空間ビデオのファイルをアップロードすることができる。クリエイターは、Vimeoを利用することで世界中の視聴者に空間ビデオのコンテンツを共有することができるのだ。
Vimeoの空間ビデオのファイルのアップロードの要件は、次の通りである。
- MV-HEVC
- 立体視、直線投影(Rectilinear)
- 視野角:90°
- 色深度:8ビット
空間ビデオの再生は、Vision Pro向けのVimeoアプリでは3Dによる視聴が可能で、VimeoモバイルアプリとVimeo.comでは2Dで表示される。ただし、Vimeoを通じて再生した場合、フルイマーシブ表示にはならない模様だ。

空間ビデオは前述の通り、主にコンシューマー向けに策定されたメディアだが、Vimeoでは、プロのコンテンツクリエイター、あるいは企業向けやビジネスの領域においても通用する表現であるとして、次のようなユースケースを想定している。
- 展示会やイベントでの製品紹介、デモやプレゼンテーションの強化
- 社員・従業員の研修・トレーニング、教育の場における体験
- ユーザーを3D体験に誘い、充実したタッチポイントとして提供することで、エンゲージメントと売上向上につながるマーケティングやキャンペーンとして利用
VimeoのCEOのフィリップ・モイヤー氏は、「Apple Vision Proアプリのリリースは、ビデオ体験の限界を押し広げるという私たちの継続的な使命において重要な節目となります。このような空間コンテンツはストーリーテリングの未来であり、私たちはこの革命の最前線に立っていることを誇りに思います」と語っている。
アップルは、昨年11月、Final Cut Proのバージョン11へのアップデートを実施して、Macにおける空間ビデオの編集、タイトルやエフェクト追加等の機能をサポートした。
Blackmagic Designも、同時期にDaVinci Resolveのバージョン19において、空間ビデオ編集をサポートしている。なお、空間ビデオの編集は、Appleシリコン搭載のMacのみが対応している。

ビューアでステレオビデオを使用するときには、「両目」、「アナグリフ」、「差分」などの方法で表示して、視差などを確認できる


尚、MV-HEVCファイルはアップルが先行して採用しているフォーマットなので、現状でWindowsユーザーがイマーシブビデオを制作するにはハードルがあるが、先日、立体視映像に造詣が深いディーン・ツヴィケル氏より、Windows 10/11向けの「Apple Immersive Video Creator(AIVC)」という無料のツールが公開された。このAIVCは、立体視(3D)動画をApple MV-HEVC動画形式に変換するもので、サイドバイサイド(左右)方式とトップボトム(上下)方式の立体視のVR180、VR360、および直線投影(Rectilinear)の動画にも対応している。AIVCで作成された動画には、Apple Vision Proでの立体視再生に必要なアップル空間メタデータ(vexu)が含まれている。

Google Android XRの登場
アップルのみならず、GoogleもXRヘッドセットやARメガネに対応するGemini(GoogleのAIアシスタント)を搭載した新しいオペレーティングシステムを開発している。それが2024年12月、開発者向けに公開された空間コンピューティングOSの「Android XR」だ。
Android XRは、その名の通り、Android OSをベースにしており、visionOS同様、XR専用のアプリだけでなく、通常のAndroidアプリも空間に配置して利用できる。デバイスとしては、サムスンとQualcommが開発する「Project Moohan」と呼ばれるヘッドセットと、XREAL開発の次世代ARグラスの「Project Aura」などがある。
日本時間5月21日午前2時より開催されたGoogle I/O(開発者会議) 2025の基調講演では、イマーシブビデオの「Dante’s Florence in 3D VR180: Explore Palazzo Vecchio, Ponte Vecchio & Meet Machiavelli/ダンテのフィレンツェ 3D VR180」が上映された。



まとめ
VRの歴史は意外に古く、コンピューター科学者のアイバン・サザランドが最初のヘッドマウントディスプレイ(HMD)システム「The Sword of Damocles」を発明したのは今から57年前の1968年。1900年のパリ万博で、ラウール・グリモワン=サンソンの360°の全周映画「シネオラマ」の気球の仮想旅行が披露されてから125年が経とうとしている。
実写のVR動画は、ソニーの先進的なプロジェクト「Fourth View」において、90年代の後半に事業化もされているが、一般的に普及し始めたのは、この10年あまりのことである。
立体写真においては、19世紀前半にはすでに存在していたし、立体映画も映画史の初期から撮影や上映が試みられている。
3D映像に関しては、過去には黄金時代と言われた1950年代を皮切りに、1980年代、そして2010年代と映画やテレビ放送等を中心に30年周期でブームが到来している。2009年のジェームズ・キャメロン監督の「アバター」の大ヒットを経て、複数のカメラメーカーが3Dカメラを、家電メーカーが立体映像対応のAV機器の商品化に乗り出したものの、普及せずに各社が撤退したことは記憶に新しい。
そのような紆余曲折を経て、最新のトレンドとして登場したのが、イマーシブビデオと空間ビデオだ。混同されがちなこの2つは、同じ空間メディアでも明らかに内容が異なるものである。
前述の通り、イマーシブビデオは、広義においては、360°ビデオ(2D/3D)および180°ビデオ(主に3D)を含めたVR動画と言えるが、最近では、没入感と立体感を併せ持った視野角180°の高品質の3DVR動画を指す場合が多い。
とりわけ、Apple Immersive Videoは、アップルとBlackmagic Designが、高品質の180°3DVRビデオコンテンツの実現に向け、エンターテイメント作品としての高みを目指していることが伺える。
一方、空間ビデオは、ユーザーが比較的手軽に取り組め、視野角90°の立体感を重視したコンテンツを、(仮想)空間上に再現するメディアという明確な違いがある。iPhoneで家族の思い出などを手軽に空間記録したり、友人に体験を三次元共有するなどの活用の他にも、EOS VR SYSYEM等を用いて、芸術的なコンテンツの制作や教育現場の教材、美術館や博物館のアーカイブ、または企業のコマーシャルやトレーニング等に利用できる新しいメディアとして導入され、広く認知されていくことを期待する。
VRは実用面では、すでにその利用価値が認知されているが、実写VRにおいては、アダルトビデオ以外のエンタメ領域でのマネタイズには、まだ課題が残されている。
予てよりVR界隈では、アップルがVRの世界に参入すれば、一般的な普及も進むものと期待されてきた。AVPは価格が599,800円からと高額であるが、今後、エントリーモデルが投入されることで、キャズムを超えてVRが本格的な普及段階に入るかもしれない。中国の大手スマートフォンメーカーのVIVOも、AVPを意識したと思われる「VIVO Vision」というVRヘッドセットの開発を発表している。GoogleのAndroid XRのローンチも追い風となり、空間メディアは新たなフェーズを迎えていると言える。
その一方で重要なことは、デバイスのみならず、コンテンツのクオリティーの向上や使いやすいソフトウェアやプラットフォームの整備、視聴者の開拓などエコシステムの充実が必要である。
イマーシブビデオや空間ビデオは、2Dのコンテンツでは決して到達できない世界、すなわち、立体感と奥行き、空間における存在感や没入感といった高次元の体験が得られるメディアだ。デジタルと現実が融合し、芸術やエンタメ、教育等が再発明されるであろう空間コンピューティングの未来に相応しい映像メディアとなることは間違いない。
*図版の一部は、「WWDC24: Build compelling spatial photo and video experiences | Apple」、「Google I/O '25 Keynote」等より掲載。
WRITER PROFILE

