ソニー、NAB 2024の同社ブースで2種類のバーチャルプロダクションのデモンストレーションを披露した。
一つは映画系で、VENICE 2ベースのデモだ。バーチャルプロダクションの制作をより効率的に行うには、事前の準備が非常に重要となる。その事前の準備の部分は、バーチャルの空間の中でカメラがどのような位置でどのように表示されるのかをシミュレーションるツールとしてUnreal Engineが担当する。しかし、Unreal Engineを使ってシミュレーションをすると、標準機能の部分だけではどうしても足りない部分が発生する。1つはバーチャルのカメラそのものが、似ても似つかないというところが問題となる。表現されるカメラのプロセスや色味が、一般的なカメラと大きくずれているというのが理由だ。
ソニーは、VENICEがどのような信号処理を行っているのかを理解をしている。そこでそのバーチャルVENICEを機能として、バーチャルプロダクションツールセットをUnreal Engineに導入することによって表現できるようにしている。これは2023年Inter BEEのトピックだが、そこに新たにシステムカメラにも対応し、テレビ制作用のバーチャルプロダクションというのが今回のNABの新しいトピックだ。
シネマ向けとテレビ制作用向けのデモンストレーションの違いは、シネマ用は1台のカメラで各シーン1カットごとに撮っていくのに対して、中継用のカメラを使った場合はマルチカメラでオペレーションが可能。そのあたりをブースでデモンストレーションが行われていた。