Txt:金久保哲也

Vol.02でもお伝えした通り、規模の縮小が感じられる今年のSIGGRAPHだが、技術トレンドに関していくつかの新たな傾向が見られた。そのひとつにテクニカル・ペーパーでのアニメーションに関する論文が多かった事があげられる。昨年までCharacter Animationというセッションの中に様々な手法が混在する形でセッションが構成されていたが、今年はアニメーション編集やモーション・プランニング、バイペット・コントロール等、カテゴリ毎にセッションが構成されている。

kanakuboimg00.jpg

ビデオゲーム開発でも高度なアニメーション技術が今後のトレンドとされている。ハードの高性能化とグラフィック技術のリアルタイム化傾向によって、ビデオゲームのグラフィック表現はこの飛躍的に進歩した。そしてそれに見合ったアニメーション表現が求められている。こうした状況を踏まえてビデオゲーム開発から見たSIGGRAPHで発表された、先進アニメーション技術に関するレポートを報告しよう。

複雑な表情コントロールをシンプルにする新たなフェイシャルのアプローチ

フェイシャルアニメーションはCGキャラクター表現において、今後の課題と言える。キーフレームによる生き生きした表情を作成するには時間と手間が非常に掛かる。かといって、フェイシャル・キャプチャは役者とキャラクタ間で表情としての顔の動きの解釈をどのように対応させるかという点で、いまだ多くの課題がある。顔の動きは微細でとても複雑な動きで、役者によってその挙動は千差万別だからだ。

こうした状況にフェイシャルキャプチャを基にキャラクタの表情を直感的にコントロールする様々なアプローチが紹介された。傾向としては、各部位の動きを個別にコントロールするのではなく、表情や顔の動きをデータベース化して、複雑なブレンドシェイプや直感的なユーザーインタフェースでコントロールするような手法がみられた。

・Example-Based Facial Rigging

複数の表情のフェイシャル・シェイプデータを基に、各部位がどのように連携して動くのかデータベースを基に複雑なブレンドシェイプアニメーションをコントロールする手法。ハンドクラフトのフェイシャルモデル、3Dスキャンによるフェイシャルデータでの実例が紹介された。役者のフェイシャルデータ、キャラクタのフェイシャルデータの整合性を合わせたデータベースを用意する事で、マーカー位置や移動量に依存しない、より有機的なフェイシャル・アニメーションのリターゲットが可能だ。

・Face Poser: Interactive Modeling of 3D Facial Expressions Using Facial Priors

フリーフォーム・ストロークを描画したり、モデルにアサインしたカーブを変形させる事によって、直感的に表情を作成する仕組み。顔の動きは各部位が複雑に関連して動くため、こうしたアプローチでは通常、複数のコントローラを操作しなければならないが、このシステムでは、例えば、口の開き具合を編集しただけで、その周辺の関連する部位が連動して変形する。これも事前にモーションキャプチャデータを基に作成されたデータベースによって複雑な変形を実現している。

・The Mimic Game: Real-Time Recognition and Imitation of Emotional Facial Expressions web

カメラのに映った人の表情のまねをするインタラクティブなアニメーション・エージェント・システム。映像制作やゲーム開発に見られる、フェイシャル・キャプチャが顔に取り付けた各マーカーの移動量に基づいてキャラクタの顔を変形させているのに対して、この手法では、事前にユーザーの表情をキャプチャ、これをデータベース化したものを基に顔のモデルを変形させている。笑い、悲しい、怒りといった表情の変化に基づいた簡易的なユーザーインタフェースでのコントロールも可能となっている。ユーザーのフェイシャルに基づいたデータベースが短時間で作成できるのであれば、ノーマーカーの簡易イメージベース・フェイシャルキャプチャ的なものに応用できるかもしれない。

オリジナルの動きを活かす新しいアニメーション編集

『Editing Motion』と題されたテクニカル・ペーパー・セッションでは新しいキャラクターアニメーション編集手法が紹介された。アニメーションのトポロジーを保持しつつ、スピードやタイミング、キャラクタのプロポーションなどを変更する技術はアニメーション編集をより直感的にするだけでなく、リアルタイムへの応用によって、少ないリソースを基に多くのバリエーションを生成することが出来る。

・Interactive Generation of Human Animation With Deformable Motion Models

アニメーションのパスを描く事により、直感的にアニメーションデータを編集する手法。例えば、歩くアニメーションに対して腰を選択して、腰の移動パスを変更すると、他の部位も変更に対応してアニメーションが調整される。また、パスの長さを変更することでステップ幅が変更される。この場合、足のスリップが発生しないようにタイミングが調整される。

・Spatial Relationship Preserving Character Motion Adaptation

柔道やレスリングなど対キャラクタ関係があるアニメーションに関する、新しいリターゲット手法。通常のリターゲットのような、キャラクタの骨の長さでリターゲットするのではなく、キャラクタ間の関係も参照している。例えば、肩に手を回すような動作の場合、背丈や肩幅が変わっても、肩に手を回すというポーズ、動作が破綻することなくリターゲットされる。 応用例として車に乗り込むアニメーションのリターゲットをの入り口やシートをボーンで構成して、プロポーションの異なるキャラクタでも車に乗り込むアニメーションが位置関係が破綻する事無くリターゲットされていた。

外力のインタラクションに対応したモーション・プランニング

地形とキャラクターのインタラクションを基に動きを生成するモーション・プランニングでは、テーマとして外力とのインタラクションに取り組んでいる傾向が見られた。モーション・プランニングの技術はビデオゲームの地形に対するインタラクティブで細かなキャラクタ挙動に応用する事が出来る。ビデオゲームのキャラクタアニメーションでは、高性能なゲームハードの登場によって高解像度化した背景ステージに対応した挙動が求められている。

・Robust Physics-Based Locomotion Using Low-Dimensional Planning

kanakuboimg01.jpg

物理ベースでキャラクタの足取り毎にバランス取りを考慮した移動パスを自動生成している。インタラクティブな操作に対応しながら、変化のある地形やアスレチックな地形、外力に対する挙動も再現されている。

・Terrain-Adaptive Bipedal Locomotion Control

kanakuboimg02.jpg

不規則な地面に対して、事前にパスプランと地面に対するコリジョンを考慮したジョイントの計算する事によって、モーションコントロールを自動生成している。移動方向と異なる方向に向きながら不整地を移動するといった複雑な歩行が自動生成されている。外力に対する挙動は地形の変化が反映されており、足の設置と外力を受けたタイミングの関係によって外力に耐える事が出来たり、転倒するといった挙動も再現されている。例えば片足の膝を曲がらなくした場合での再現も可能で、地形の変化に加えて、キャラクタのちょっとした運動機能の違いによる動きの変化も表現できそうだ。

・Optimizing Walking Controllers for Uncertain Inputs and Environments

外部からの力やトルクコントロールといった物理ベースの不確定要素に対して、確立分布とモンテカルロ法でコントローラを最適化するアプローチ。変化に富んだ地形の歩行や滑りやすい地面、コーヒーカップを持って中身をこぼさないように歩くといった動きが自動生成されている。不確定な状況を判断して動きを自動生成する事が目標であるが、逆にパラメータをコントロールする事によって、身体的にうまく状況を判断して動けない、例えば、疲れているとか体に受傷してうまく身動きできないといった表現に応用できると面白そうだ。

・Optimal Feedback Control for Character Animation Using an Abstract Model

モーションキャプチャデータを基に足と地形の接地や慣性のシミュレーション・モデルを作成することで、外力に対するフィードバッックの挙動をアニメーションデータに加えている。また、地形の変更に対応してアニメーションデータも調整される。例えば、1つの階段を上がるアニメーションデータを基にして段差の高さが異なるアニメーションを作成することが出来る。モーションキャプチャでなく、アニメーションデータをシミュレーション化することも出来るので、演技的な要素は従来通りのアプローチでアニメーションを作成しながら、物理的なインタラクションの表現をシミュレーションで表現する事ができる。

モーションキャプチャデータをシミュレーション再現するなど、新アプローチのバイペット・コントロール

バイペット・コントロールは、物理シミュレーションなどを基に自動生成する方向から、モーションキャプチャデータを活用したアプローチやアーティスト・コントロールを取り入れるなど、直感的なコントロールを取り入れる傾向が見られた。

・Sampling-Based Contact-Rich Motion Control

モーションキャプチャデータを基に足だけでなく、椅子に座ったり、床をゴロゴロしたりする動きに対してコリジョン計算を行い、床への沈み込みやオブジェクトとのめり込みを補正する方法。コリジョン計算をしつつもオリジナルの動きをなるべく再現するように調整されている。アニメーション・リターゲット後のスキンモデルの形状に基づくコリジョン調整に応用できる。

・Data-Driven Biped Control

kanakuboimg03.jpg

モーションキャプチャデータの先のフレームを参照して動きをシミュレーション再現して、外力に対する補正やバランス調整、コリジョン、物理計算等を加えている。関節の長さの違いによって動きが変わったり、部分的にパーツの質量を大きくして、動きを変えることもできる。通常の歩行から疲れているような動きや、足を怪我して片足を引きずるような動きを表現するためのアプローチに応用できそうだ。

・Generalized Biped Walking Control

リアルタイムでアーティストコントロールが可能な自動歩行生成。関節の長さや重心の位置を変更するとリアルタイムで再シミュレーションが行われて、キャラクタの動きに反映される。外力に対する反応や荷物を引っ張る、押すといった動作でもアーティストコントロールが可能だ。キャラクタのプロポーションに依存せず、例えば、2足歩行の鳥やクリーチャーでシミュレーションすることも出来る。

・Feature-Based Locomotion Controllers kanakuboimg04.jpg

物理ベースの運動に高次関数を用いた2足歩行コントロール。状況に合わせて、平均を保つように、組み合わせる関数を変えてアニメーションを調整している。1つのコントローラーで異なるプロポーション、構造のキャラクタをコントロールすることが出来る。

総括

ビデオ・ゲームのキャラクタ表現では、紹介したセッションにあるような高度なインタラクションの生成に加えて、「知性の表現」が今後は求められる。環境から受け取るインタラクションをキャラクタが適切に認知、解釈して、アニメーションにフィードバックさせるといった表現だ。サンフランシスコで開催されるゲーム開発者向けのカンファレンス GDCでは、キャラクターコントロールにAIを取り入れる事例が紹介されているが、こうした技術とどのように組み合わせて、次世代のキャラクター表現を作り上げるかが今後の課題となるだろう。