はじめに
CES2026で最も印象的だったのは、AIの機能そのもの以上に、AIが「暮らしの中でどこに存在するか」をめぐる提案が一気に増えた年だった。会場の議論の比重としては、ハルシネーションやプライバシーといったAIをめぐる課題よりも、"実装と体験の提示"が前面に出ていたように見えた。
プロダクトへのAI実装は引き続き加速している。中でも目立ったのは、LLMを中核に据えたAgentic AIの搭載だ。音声認識技術(ASR)と音声合成技術(TTS)を組み合わせることで、「自然言語で会話すること」と「外部サービスを操作すること」がひと続きの体験として統合されつつあり、"話せるAI"はすでに前提条件になりつつある。
その上で会場の熱量を押し上げていたのが、ロボティクス領域だ。ここで合言葉になっていたのが「Physical AI」だ。AIがソフトウェアの世界のみならず、物理世界を理解し、計画し、実際に動かすという発想である。NVIDIAのCEO Jensen Huang氏がCES2025の基調講演で提示した"Perception AI、Generative AI, Agentic AIに続く流れとしてPhysical AIの時代に入る"という見立てもあり、CES2026ではPhysical AIを体現するようなロボットやモビリティ関連のデモが至るところで展開された。量と熱量は圧倒的で、予想以上の活況と言ってよい。
ただし、運ぶ・仕分ける・片づける・踊るといった"ロボット芸"の多くは、ロボット系の見本市で繰り返し見てきた類型の延長でもある。ヒューマノイドロボットの派手さに目を奪われていると、AIが生活に溶け込んでいくうえで本当に重要な変化=人間とエージェントの関係性の設計を見逃しかねない。
本稿では、Agentic AI/Physical AIの区別を問わず、AIが暮らしの中に入っていく局面で問われるHuman–Agent Interaction Design(人間とエージェントのインタラクションデザイン)に焦点を当てる。とりわけ、
- 協調のための「目」のデザイン
- 生活空間におけるエージェントの「居場所(存在感)」のデザイン
という二つの観点から、CES2026で見えた変化を整理する。
「目」のデザイン
人間同士が相手の意図を読むとき、言葉以上に頼りにしている手がかりの一つが視線だ。どこを見ているか、次にどこへ動くつもりか、考えているのか、あるいは困っているのか。こうした情報は、多くの場合、会話の外側で交換されている。
この前提に立てば、ロボットが人間の生活空間に入ってくるとき、自然言語だけのコミュニケーションでは不十分だ。人間同士のやり取りにおいて視線が担っていた役割を補完しない限り、人とロボットの滑らかな協調は成立しにくい。そこで重要になるのが、ロボットの「目」のデザインである。
ロボティクス領域において、協働ロボット(collaborative robot/cobot)は、まさに人間との関係性に正面から向き合ってきた分野だ。従来の産業ロボットが安全柵の内側で高速・高出力に働く存在だったのに対し、協働ロボットは人と同じ空間で近接して作業することを前提に設計される。この"同じ空間で動く"という前提が、新しい課題をもたらした。
共同作業に必要なのは安全性だけではない。人間がロボットの行動を先読みできること、つまり行動の予測可能性が求められる。ロボットが次に何をしようとしているのかが分からない状態は、それだけで不安や恐怖を生む。
この文脈で「目」を捉えると、ロボットの目は擬人化の記号ではなく、行動の説明責任を果たすためのインターフェースとして立ち上がってくる。そもそもロボットにおいて、人間における目の役割を担うのはカメラや測距センサーなどの入力系だ。ディスプレイとして「目」を与えるという行為は、意図的に情報を人に向けて"見せる"ための設計にほかならない。
人間は、目を模倣したディスプレイを通じてロボットから提示された「視線」から相手の注意と意図を推測し、協調行動を調整する。最新の研究論文でも、こうしたロボットの視線は、ロボットの意図を人間に伝え、人間の注意誘導に一定の効果があることが示唆されている。
この発想を産業用途で明確に示した代表例が、2012年に発表されたReThink Roboticsの協働ロボット「Baxter」である。Baxterは頭部にタブレット状のディスプレイを備え、目の表情、ライト、吹き出しの組み合わせによって状態を伝える設計になっていた。表示される目は感情表現というよりも、「いま何をしているか」「何に反応しているか」を共有するためのインターフェースとして機能していた。
人がロボットを怖がるのは、出力が強いからだけではない。行動の意図が読めないからでもある。目は、その"読めなさ"を減らすための、低コストで強力なメディアになり得る。
CES2026でも、ディスプレイによる目を備えたロボットは数多く見られた。近年の小型ディスプレイ(とくに丸型モジュール)の低価格化もあり、丸型ディスプレイを目としてぬいぐるみのような筐体に埋め込んだロボットが量産されている。清水幹太氏の指摘する「LOVOTもどき大量発生問題」が象徴するように、形状は急速に似通ってきている。
その多くは現時点では「かわいさ」「親しみやすさ」の演出にとどまり、Baxterが試みたような協調のためのインターフェースとしての目を突き詰めた例はまだ少ない。目がディスプレイになったことで「表情は出せる」ようになったが、次に問われるのは、「何を見せれば人とロボットは協調できるのか」という設計そのものだろう。
「存在感(presence)」のデザイン
ここまで、協調のための「目」の設計を見てきた。ここからは、もう一段根本の問いと向き合いたい。Agentic AIは、生活空間のどこに、どんな形で存在しうるのか。
スマートフォンの中のAgentic AIは、呼べば返事はする。しかし部屋の中で、人が視線を置く場所、話しかける先、注意を向ける対象としての"存在感"を持たない。AIが暮らしに入り込むほど、この設計は避けて通れない論点になる。
CESではここ数年、Amazon EchoやGoogle Homeのようなスマートスピーカーからはじまり、家電メーカーが冷蔵庫やテレビ、掃除機といった既存の製品にAIを「憑依」させ、将来的にはそれらをつなぐハブとしてホームロボットが登場する、というビジョンが語られてきた。CES2026におけるロボットの活況は、その延長線上にあるともいえる。
しかし今年のCESでは、ロボットとは異なる形でAIを空間に定着させようとする試行も目立った。Razerの「Project AVA」は、PCの横に置く3Dホログラム型(メーカー表現)のデスクコンパニオンとして、Agentic AIをスマートフォンや画面の中から切り離そうとするアプローチだ。WindowsPCとUSB-Cで接続して、PCの横に置いておくというもの。grokと連携して毎日の予定のアシスト、Razerのプロダクトらしく、ゲームのコーチングなどを行うという。
Samsungの発表したSpatial Signageは、箱型筐体に頼る従来の3Dサイネージとは異なり、いわゆるレンチキュラーのような3D Plateと呼ばれる層を薄型フラットパネルに統合して奥行きを出す試みだ。これは店頭用のサイネージとして設計されたプロダクトだが、マイクとスピーカー、そしてAgentic AIを動作させつつ、映像をリアルタイムに生成するPCと統合すれば、AIコンシェルジュ的なサービスを開発することも可能だろう。
これらに共通しているのは、AIにロボットのような物理的能力を与えるのではなく、呼びかけ先としての定位置を与えようとしている点だ。居場所(定位置)を作ることは、エージェントを「プロンプトの向こう側の存在」から、「同じ空間にいる相手」へと近づける戦略でもある。効率を上げるというより、関係性の距離を縮めるための設計と言ったほうが近い。
ここで気になるのは、こうしたプロダクトの多くが、既視感のある形へと収斂している点だ。RazerのProject AVAは、2019年にGatebox社が発売したキャラクター召喚デバイスを強く想起させる。
同様のことは、SamsungのSpatial Signageと、数年前から展示会や商業施設で見られるようになったHolobox系デバイスの関係にも当てはまる。どちらも、箱の中に人やキャラクターが「いるかのように見える」表現を用い、視差や奥行きの錯覚によって存在感を生み出している。
これは必ずしも模倣やアイデア不足を意味するものではない。むしろ「生活空間にAIの居場所を作る」という目的から逆算すると、選択肢が急激に狭まることの結果とも言える。机の上や棚に置けるサイズで、常時視認でき、かつ"中に何かがいる"と直感的に理解できる形状を考えたとき、円筒や箱状の透明筐体に行き着くのは自然だ。
こうして見ると、CES2026で目立った「似た形」の多発は、表現の停滞というより、AIに生活空間の中に居場所を与えようとしたときに立ち現れる設計上の重力のようなものだと言える。どこに置くのか、どの距離で対峙するのか、どれくらいの存在感が許容されるのか。これらの条件が似通えば、形もまた似てくる。
問題は、形が似ていることではない。そこから先、つまり「その場所で、エージェントはどう振る舞うのか」「人間はどの程度まで関与を許すのか」という関係性のデザインが、まだ十分に掘り下げられていない点にある。
だからこそ、次の段階で問われるのは筐体や表示方式の差分ではない。現時点ではまだ粗いが、この未完成さこそが"次にどこを設計すべきか"を浮かび上がらせている。
AIに居場所を与える競争
近年のAI技術の発展はソフトウェアの領域でなされたものである。一方でCES2026で各社がハードウェアを前面に押し出したのはなぜか。その一つの答えは、AIを生活に入れるには、能力より先に"居場所"を作る必要があったからだ。
家の中で家事を手伝うという触れ込みのヒューマノイドロボットはその極端な回答例といえる。居場所と家事という明確な役割を同時に与えられる。一方で、ホログラム、空間ディスプレイ、オブジェ型デバイスは別解だ。物理能力は最小限に抑えつつ、存在感と呼びかけ先を確保することで、エージェントを生活空間に定着させようとする。
本稿のテーマは、AIが賢くなるほど必要になる「関係性の設計」についてである。協調のための目—意図や状態を読ませる設計。そして生活空間における居場所—どこにいるのかを固定し、呼びかけ先を作る設計。CES2026のロボット活況は、AIが担うタスクの競争であると同時に、AIに"居場所"を与える競争だったと見ることができる。
ただし、現時点で提示されているものは、まだどれも成熟途上の印象が強い。存在感は作れても、そもそもタスクの成功率が安定しなかったり、UX自体が練られていない印象をうける。日常の中で安心して常駐させるには、まだ決定的に足りないものがあるように感じた。
しかし、その未完成さこそが2026年時点でのリアルとも言えるだろう。完成されたプロダクトの展示というより、「次にどこを設計すべきか」を作り手に突きつける挑発として、CES2026の展示は機能していたように感じる。
AIが暮らしに溶け込むかどうかを分けるのは、ロボットのスタイリングや動きの派手さではない。モデルの賢さだけでもない。いま問われ始めているのは、Human–Agent Interaction Designの成熟だ。目の設計、居場所の設計、そして人間が安心して同居できる関係性の作法。そのUXをどこまで磨けるかが、次の競争軸になるだろう。