
AWSは毎年NABの展示ブースにおいて、革新的なデモンストレーションを実施し、注目を集めている。今年も、スポーツ向けライブクラウドプロダクション(LCP)と生成AIの未来をテーマとし、多くの来場者の関心を引いた。
西ホールロビーにおいては、「eスポーツレーシングチャレンジ」(Esports Racing Challenge)と題し、F1のシミュレーターを持ち込み、実際に来場者がラスベガスのストリートサーキットを体験できる企画が実施された。一方、西ホール入り口付近のメインブースでは、「スポーツ向けライブクラウドプロダクション」「ファンエンゲージメント」「マルチチャンネル収益化」「ラジオ&ポッドキャスト」という4つの主要ワークフローを通じ、スポーツ放送におけるライブクラウドプロダクションと生成AIの未来が紹介された。これらの展示およびデモンストレーションは、来場者から大きな注目を集めた。
以下に、制作工程の上流から順番に現地ブースのハイライトを紹介していこう。
ライブスポーツを軸としたアプリケーションを紹介
2024年度のNABにおいては、西ホールロビーに報道スタジオが設置され、ニュース番組制作の実演が行われた。対して、NAB 2025では、プロ仕様のレーシングシミュレーターが設置され、「eスポーツチャレンジ」と題したライブレースとライブクラウドプロダクションの融合が実演された。
会場には、レーシングシミュレーターのシートが4台設置されている。これにより、4名の参加者はラスベガスサーキットを模したコースでのレースを同時に体験可能である。各シミュレーターのハンドル脇のモニター横にはカメラが設置されており、オンボードカメラとしてカメラ映像とゲーム画面映像がSRTを通じてクラウドへ送信される。クラウドへは、8台のレーシングシミュレーターからの映像と、インタビューブースからの4台のカメラ映像、合計12台分の映像がSRTで送信された。



会場からAWSクラウドへは合計12台の映像がSRTで、音声はDanteで送信された。送信された信号はAWS Elemental MediaConnectを経由し、NDIに変換されて制作環境へ送られた。
この工程において、音声伝送にDanteクラウドが採用された点は注目に値する。Danteクラウドは、クラウド上での音声処理を可能にする新たな技術であり、柔軟な音声ミキシングを実現する。AWSブースのデモンストレーションは、顧客ニーズに応じた最適なソリューションを提供するため、毎年異なるプロトコルを採用している。昨年はNDIオーディオが使用されたが、今年はDanteが採用された。Danteクラウドの導入は、クラウドにおける音声処理の可能性を広げ、今後の放送業界に影響を与えることが予想される。
ライブクラウドプロダクションの実例
AWSブースにおいては、クラウドを活用したライブ映像制作の実践的なデモンストレーションが展開された。先述のF1シミュレーターの映像信号はクラウドへとアップロードされ、ブース内では実際の番組制作が行われている。

制作スタッフが操作するコンソールは、一見すると従来の放送現場と差異は見られない。しかしながら、このコンソールはクラウド上に構築されたシステムと接続されており、音声ミキサー、リプレイサーバー、スイッチャー、グラフィックス生成装置などがクラウド上で稼働している。
ライブクラウドプロダクションが世界的に注目を集める背景には、複数の要因が存在する。まず、機材の持ち込みが大幅に削減可能となる点が挙げられる。従来の中継車を用いた制作では、大量の機材と人員を現地に派遣する必要があったが、クラウドを活用することにより、カメラとエンコーダーのみを現地に設置すれば、残りの作業はリモートで実施可能となる。
また、オペレーターが必ずしも同一の場所にいる必要がない点も大きな利点である。リプレイ、スイッチャー、グラフィックスなど、各担当者が異なる場所から作業できるため、制作体制の柔軟性が向上し、コスト削減にも繋がる。
さらに、クラウドの「従量課金制(ペイアズユーゴー)」は、スポーツやイベントなど、特定の日時に集中する番組制作において、コスト効率を最大限に高める。使用した分だけ課金されるため、機材の遊休時間を削減し、無駄なコストを抑制することができる。

AWSブースでは、多様なパートナー企業と連携し、スポーツの規模や予算に応じた多岐にわたる制作ソリューションが提案されている。例えば、JPEG-XSと専用線を用いたプロフェッショナル向けの制作から、インターネット回線と簡易的な機材を用いた低予算向けの制作まで、幅広い選択肢が用意されている。
そして、クラウドを活用することで、AIによるハイライト自動生成や映像処理といった、新しい技術を容易に導入できる点も重要なポイントである。AWSのライブクラウドプロダクションは、ライブ中継制作の可能性を拡大し、業界の未来を切り拓く技術として注目を集めている。

具体的な機材構成については、音声コンソールはCalrec製、リプレイサーバーはEvertz製DreamCatcher、スイッチャーはRoss Video製、グラフィックスはTagboard製、マルチビューワーはSienna TV製が使用されている。
12チャンネルの映像信号は、オンボードカメラ、ゲーム画面、コメント映像、全景映像など、多岐にわたる。これらの信号はSRTでクラウドにアップロードされ、Danteで伝送される音声と合わせて、クラウド上でリアルタイムに制作されている。

※画像をクリックして拡大
AWSブースでは、制作サブだけでなく、マスターのデモンストレーションも実施されている。Matrox社のスイッチャー、TAG Video社のマルチビューワーなどが使用され、コンパクトなクラウドマスターが構築された。リニアフィードの作成と管理に加え、地上波ATSC 3.0チャンネルと、無料広告型のストリーミング配信サービス(FAST)チャンネルの両方で映像を届ける、放送ワークフローの展示が行われた。

スポーツハイライトの自動化を実現
ライブ制作された映像からの自動ハイライト生成デモンストレーションが公開された。このデモンストレーションにおいては、複数のAWSパートナー企業のソリューションが組み合わされ、縦型動画の自動ハイライト生成という新たな試みが実施された。

まず、TwelveLabs社のシステムが映像を詳細に解析し、スタートシーン、サイドバイサイド、テイクオーバーといったハイライトシーンをタイムコード付きでリスト化した。TwelveLabsは、映像解析(Video understanding)に特化した生成AI基盤モデルを開発するパートナー企業である。同社の動画理解プラットフォームは、人工知能技術を駆使して動画から多様な情報を抽出することを可能とする。

TwelveLabsの動画理解プラットフォームは、人工知能を用いて動画から情報を抽出する
次に、これらの選定されたキーシーンがシームレスに繋ぎ合わされ、一本のハイライト動画が生成された。この時点では、オリジナルの音声が各シーンに合わせて断片的に編集されているため、一貫した解説になっていない。そこで、生成AIが映像の内容をテキストデータに変換し、それを基に一連の流れのある解説文を自動的に付与する工程が実施された。
さらに、Deepdub社の音声合成技術により、生成された解説文をAIが自然な形で読み上げ、多言語の音声を作成した。同社は感情表現豊かな音声生成技術を持ち、今回のデモでは特にF1解説者の声質を再現した。この技術は映画やドラマの吹き替えなど、様々な分野で活用されている。
最後に、Prime Focus Technologies社の技術を活用し、従来の16:9の横長映像を縦型フォーマットに変換した。この際、重要なシーンが欠けないよう、AIが映像の内容を解析し、最適な切り抜き処理を自動的に行った。

こうして完成した縦型動画では、AIによって生成された解説音声を聴取することが可能となっている。デモンストレーションにおいては、スペイン語と英語の音声が公開された。日本語音声の生成も技術的には可能であるが、現時点においてはまだAI特有の機械的な読み上げが若干残存するという。この一連のデモンストレーションは、クラウド環境におけるライブ制作と最先端のAI技術との融合が、全く新しい映像表現の可能性を切り開くものであることを明確に示唆している。
新たな収益化の機会を発見
AWSブースにおいては、制作されたコンテンツの収益化に向けた「マルチチャンネルマネタイゼーション」に関するデモンストレーションも実施された。ここでは主に2つの取り組みを紹介する。

1つ目は、パートナー企業であるITG(In The Game)の技術を活用した広告挿入である。同社の技術は、サイドバイサイドやL字型といったアドバンスドフォーマットと呼ばれる広告をクライアント側で挿入することを可能にする。スポーツ中継などCM挿入のタイミングが難しいコンテンツにおいて、視聴体験を損なうことなく広告を表示する重要性が高まっている。デモンストレーションでは、広告シグナリングを送信後、AWSのバックエンドから広告サーバーに接続し、取得した広告が映像にリアルタイムで描画される様子が示された。
具体的には、映像をスクイーズして広告を挿入する手法が紹介された。特にアドバンスドフォーマット広告では、クライアントサイドでの挿入の大きなメリットとして、ユーザープロファイルに基づいたターゲティング広告が容易になる点が強調された。例えば、40代男性にはビールの広告、女性には女性向けアパレルの広告といった具合に、視聴者属性に合わせた広告表示が実演された。さらに、クライアントサイドでの広告はクリッカブルにすることも容易であり、広告からeコマースサイトとの連携も実現できるという。


2つ目は、映像内のオブジェクトをリアルタイムに差し替えるデモンストレーションである。映像内のバーにAWSのロゴがリアルタイムで挿入されたり、映像内のオブジェクトに広告が挿入されたりする様子が紹介された。この技術は、AWSのパートナー企業であるTGI Sportのソリューションによるもので、オリジナルの映像がクラウドに送られ、クラウド側で広告挿入可能な位置情報(XY座標)などがクライアントに送信される。クライアント側では、その情報に基づいて広告がレンダリング表示されるが、単なる位置情報だけでなく、ディストーション(歪み)やリフレクション(反射)の情報も加味されることで、より自然な形で広告を映像に統合することが可能になるという。

デモンストレーションはライブ映像に対して行われ、特に映像内の動いているオブジェクトへの自然でリアルタイムな広告挿入の難しさと、それを実現する技術力が示された。例として、スポーツ中継映像のガラス面にAWSのロゴがリアルタイムに合成される様子が紹介された。

この技術は、他のスポーツコンテンツにも応用可能であり、従来のライブクラウド制作にクラウド技術を活用することで、ファンへの新たな視聴体験の提供や、収益化の機会の創出に繋がるとしている。
AWS担当者に聞く、今回の展示について
今年のAWSブースの展示について、アマゾン・ウェブ・サービス・ジャパン合同会社の山口賢人氏と、AWSでメディア&エンターテインメント、ゲーム、スポーツ分野のグローバルリーダーを務めるNina Walsh氏に、それぞれ直接話を伺った。

アマゾン・ウェブ・サービス・ジャパン合同会社 インダストリー事業開発マネージャー 山口 賢人氏(右)
AWS 山口賢人氏
メディア・エンターテインメント業界は現在、大きな転換期を迎えています。視聴者の行動様式や嗜好の変化、そして多様化するコンテンツプラットフォームにより、従来の放送モデルは大きく変化を求められています。
今回のNAB Show 2025では、この変革期に向けた具体的なソリューションを提示しました。F1シミュレーターを活用したデモンストレーションを通じて、ライブクラウドプロダクションの実用性と、生成AIによる新たな視聴体験の創出を具体的に示すことができました。
さらに、制作ワークフローのクラウド化による効率向上、AIを活用したコンテンツ制作の自動化など、包括的な提案を行いました。AWSは、お客様のビジネス成長を支える革新的なソリューションの開発に今後も注力してまいります。
AWS Nina Walsh氏
デジタル化の波とともに、エンターテインメント業界は新たなステージに移行しています。NAB Showでは、次世代のメディア体験を形作る技術革新を紹介しました。
特筆すべきは、多くのパートナー企業とのエコシステムの広がりです。クリエイティブ制作からコンテンツ配信、収益化まで、業界のバリューチェーン全体をカバーする包括的なソリューションを実現しています。
世界各地の放送局、スポーツリーグ、配信プラットフォームとの協業を通じて、私たちは技術革新がもたらす可能性を実証してきました。AWSは、より魅力的でインタラクティブな視聴体験の創出に向けて、グローバルなイノベーションを加速させてまいります。
来場者にAWSブースの見どころを聞く
今年のNABにおいても、AWSブースでは多岐にわたる革新的なアップデートが公開され、来場者の注目を集めた。そこでここでは実際にブースを訪れた方々に対し、特に印象深かった点、見どころ、そして感想について伺ってみた。

AbemaTV 五藤佑典氏
複数の視点からコンテンツを視聴できる没入型の視聴体験が展示されておりました。ブース内では、その実現手段に特に興味を惹かれました。展示されていたコンテンツは、現実世界で動作している様子が非常に滑らかに再現されており、臨場感がありました。技術的な詳細を伺いますと、ターゲット・デバイスの性質に応じて複数の異なるエンコード/デコード/伝送手法を組み合わせており、高度に技術を応用した実現手法だと感じました。
単にすごい技術が用いられているというだけでなく、展示会場で実際に撮影された映像を拝見した後にその展示を見たため、現在行われていることがその場で体験できているという感覚がありました。特に、ビューを切り替えることで、全く異なる体験を平行した時間の中で複数得られることは、現実を超える体験だと感じました。
AbemaTV 加藤諒氏
Media2Cloudの新しいV5という展示において、動画を解析する部分のAIに関心を持ちました。私自身もABEMAの中で、動画を解析し、メタデータを付与することで、その後の活用に役立てるという業務に携わっております。そのため、Media2Cloudのワークフローにおいて、どのようなデータの流れで扱われているのかという点に注目いたしました。
特に新しい部分としまして、今回の展示ではAmazon Nova Proという、動画を入力できるマルチモーダルな生成AIが紹介されておりました。クリックした後の動画に対して、よりリッチなタグや説明、例えばスポーツ中継のリキャップがどこにあるのかといった情報などのタグ付け、クリップに対するメタデータが付与されているとのことでした。その出来上がったものだけでなく、そのようなアルゴリズムの詳細まで実現できるという点で、大変勉強になり、参考になりました。
AbemaTV 古川俊太氏
今回の来場の目的としては、ABEMAのコンテンツのマネタイズ、広告挿入、そして広告面をいかに増やしていくか、既存のリニア広告だけでなく、新たな広告露出の仕組みを模索することです。
印象的だったのは、マネタイズブースでAWSさんが展示していた、ユーザーデータの統合の仕組みです。特に、AIという技術を広告の文脈でどう活用できるかという点に強い興味を持っています。先ほど申し上げたユーザーデータを集める部分、その統合の仕方において、オープンソース化したAIを用いたマッチングという技術が紹介されていました。ファーストパーティーデータがある中で、他のデータを同一ユーザーであると特定する際に、従来のやり方とは異なる方法で結合し、より精度高くDMPを構築できるとのことでした。
また、行動ログを追跡し、最終的な広告の出し方として、バーチャルプロダクトプレイスメントのソリューションがありました。例えば、レースカーのハンドルの部分に、あらかじめメーカーさんのテクスチャを用意しておき、レースの実況映像などでそのロゴを貼り付けるといったもので、大変印象的でした。
そして最も素晴らしいと感じたのは、広告とキャンペーンをプランニングするツールです。現在どれくらいの在庫があり、どのようなオーディエンスに対して、どれくらいの広告を出せるのかを計画する際に、従来のツールでは情報を入力して結果が出力されるというインタラクションが一般的だったかと思います。しかし、展示されていたデモでは、自然言語で「こういうキャンペーンをしたいのですが」と問いかけると、それを基にプランニングしてくれるというものでした。インストラクションの方法も、こういう時代になったんだなと強く感じさせられました。
関西テレビ放送 栗山和久氏

今年のAWSブースは、テーマが明確に絞られより分かりやすい展示となりました。 昨年は様々なサービスがばらばらに展示される形でしたが、今年は放送局の視点に立った具体的なワークフローの提示に重点が置かれていました。
特に注目したのは、放送コンテンツの統合的な活用方法です。従来は部署ごとに個別で行っていた映像制作を、AWSのプラットフォームを活用することで一元化。地上波放送とウェブ配信のチームが同時並行で効率的にコンテンツを制作できる可能性が示されました。
また、放送局の新たな収益機会として、コンテンツの多角的展開(キャラクター化、VR体験など)の具体例も提示されていました。AIコーナーでは、実写映像のキャラクター化や、AIを活用した制作ワークフローの効率化など、実践的な展示が行われていました。
さらに注目すべきは、従来オンプレミスで行っていたCMと番組の切り替え作業をクラウド化する展示です。アメリカではすでにAWS上での映像切り替えとテスト電波の発信まで実現しており、日本の放送業界が今後進むべき方向性を示唆する展示となりました。
まとめ
NAB 2025のAWSブースは、ライブクラウド制作と生成AIを融合した実演により、スポーツ中継の未来像を示した。オンプレ機材を最小化するワークフロー、AIによるハイライト自動生成、映像内広告の高度なマネタイズ手法、いずれもクラウドならではの柔軟性と拡張性を裏付ける実例である。
こうした最新トレンドを国内で振り返る機会として、「NAB Show 2025 Recapセミナー」の開催が予定されている。5月15日(木)14:00よりオンラインにて開催予定で、ラスベガスで発表された最新技術や業界動向を、日本語でわかりやすく紹介する恒例の企画となる。詳細は以下のページを参照してほしい。
さらに、6月25日(水)・26日(木)には、幕張メッセにて「AWS Summit Japan 2025」が開催される。40,000人規模の来場者が集い、160超のセッションと270以上の展示を通じて、AI / クラウド活用の最前線を体験できる国内最大級のイベントだ。詳細と登録方法はAWS Summit Japan 2025 公式LPを確認してほしい。