長野光希 / CG技術開発者

ライトハウス電子版アプリ、始めました

人の肌の質感まで再現したリアルなバーチャルキャラが溢れる世界を作りたい。

USCの大学院で、ハリウッド映画にも採用される最先端のCG(Computer Graphics)技術開発に従事する長野光希さんに、研究内容や今後の展望などについてうかがいました。
(2016年4月16日号ライトハウス・ロサンゼルス版掲載)

ながのこうき◎2012年、東京工業大学工学部社会工学科を卒業後、University of Southern CaliforniaのComputer Science博士課程に進学。以後、院生兼リサーチ・アシスタントとしてCGの研究に従事する。2015年、CGの分野で世界最高峰の学会「ACM SIGGRAPH」で、肌の伸び縮みをCGで再現する技術に関する論文が優秀論文に採択。2016年3月にはGoogleの「PhD Fellowship Program」の奨学生に選ばれる。

―そもそも、なぜこの世界に入ったのでしょうか?

長野光希さん(以下、長野光希):もともとは空間設計や公園の建築デザインなどが専攻でした。転機は、メディアアートの授業を取っていた関係で、ロサンゼルス開催のCGの学会「ACM SIGGRAPH」や、今所属しているUSCのCGの研究所を見学したこと。CGがすごく面白そうで、専門を変え、USCで研究することにしました。

―所属されている研究所について教えてください。

長野光希:『Avatar』や『Tron:Legacy』『The Curious Case of Benjamin Button』などの映画にCG技術を提供していたり、2009年にはそれまでの功績を讃えられて研究所を率いるPaul Debevec先生がアカデミー賞の科学技術賞を受賞したり、とにかくCGに関しては最先端の研究所ですね。

―2012年から同研究所に所属していますが、どのような研究を行ってこられたのでしょう?

長野光希:いろいろやっていますが、例えば、人間を3Dスキャンして、それを遠く離れた所で3次元映像として投影する技術の研究とか。映画『Star Wars』シリーズで出てきたホログラムのような装置と言ったら分かりやすいでしょうか。あとはやはり、人間の顔をリアルにCGで再現する研究ですね。

―2015年1月、「ACM SIGGRAPH」で人の顔のシワをシミュレートする技術に関する論文が、優秀な論文に選ばれました。

長野光希:はい。毎年500本くらいのCGに関する論文が投稿され、その中から100本くらいの論文が優秀な論文に選ばれるんですが、そのうちの1本に採択されました。これに選ばれると、学術界のほか、映画業界やアニメ業界、ゲーム業界などさまざまな業界から2万人もの人が集まるカンファレンスで、自分の研究に関してプレゼンする機会が与えられるんです。そこから自分の技術が映画やゲームなどに使われる話に発展したりすることもあり、僕も実際にそうしたことがあったので、この学会はかなり研究をしていく中で重要です。

笑った時に肌が張って表面につやができたりなど、肌の表面の変形をリアルにシミュレーションする。

―具体的にはどのような研究内容なのでしょうか?

長野光希:論文で発表したのは、人の顔のシワ、肌の動きをいかにリアルにCGで再現するかの研究です。人の顔のシワの伸び縮みをさまざまなパターンで撮影してPCに取り込み、アニメーションなどで忠実に再現できるようにするためのアルゴリズムを開発したんです。データは顔全体で約1万6000ピクセルと膨大で、普通の物理計算では重くてまともに動作しないのですが、それを速くシミュレーションできるアルゴリズムを作ったんです。ミクロな細かいシワの形や肌の動きにまでこだわってCGで人の顔を作っていくと、引いて顔全体を見た時もリアルさが全然違って見えます。

―今後、この技術が映画などで使われていくのでしょうか?

長野光希:昨年の冬から夏にかけて、今回のしわをシミュレーションするアルゴリズムを使って、ハリウッドのデジタルアーティストなどと手を組み、これまでにないリアルな人の顔のアニメーション作りに取り組みました。それから、残念ながら今はまだ守秘義務があって言えないんですが、今年これから公開される、ハリウッドの大作映画などでもこの技術が使われているので、すごく楽しみにしています。

―そうやって研究結果が目に見えて大きな成果につながるのはいいですね。

長野光希:そうですね。CGは比較的短いサイクルで、映画やゲーム、アニメをはじめとするエンターテインメントやバーチャルリアリティーなど、分かりやすい形で社会に活用されるチャンスがあるので、やりがいがありますね。

―逆に、苦労する点は?

長野光希:例えば「ACM SIGGRAPH」でも研究論文の提出には毎年締め切りがあるので、それに間に合わせるのは大変ですね。競争が激しい世界ですし、技術というのは世の中で一番最初にやるってことがすごく大事。だから、他の研究所などライバルに自分がやろうとしていることを先にやられてしまわないか、という焦りは常にあります。

肌の微細構造が顔の表情により伸びたり縮んだりする様子を測る自作の測定器

―今後の展望は?

長野光希:これまでは細かい肌の再現に注力してきましたが、今は口や目など、もっと大きな部分の動きをリアルにシミュレーションすることに挑戦しています。CGで人を再現した際、会話をしている時のアイコンタクトだったり、話している言葉に対していかに口が正確に動いているかだったり…。今も既にそれはかなりできているのですが、スキルのある職人がマニュアルで時間をかけて処理しているところもあって。そうではなくて、僕がもっと簡単にリアルな目や口の動きを再現できるアルゴリズムを作って、誰もがそれを使えばリアルな人の顔をCGで再現できるようにしたいんです。

―我々一般人でも使えるように…ということでしょうか?

長野光希:そうですね。最終的にはスマートフォンで自分の写真を撮ったら3次元で肌の質感や動きまで再現したCGアニメーションが作れたりしたらいいなと思っています。これって単純にゲームのアバターなどでも使えますが、化粧品やサングラスなどをバーチャルで試してみるなど、実用的にも使える技術だと思うんです。そうやって、自分の研究結果をどんどん一般社会に浸透させたい。そして、誰もがリアルなバーチャルキャラクターを作って、それが溢れかえる世界になったらうれしいです。
 
※このページは「2016年4月16日号ライトハウス・ロサンゼルス版」掲載の情報を基に作成しています。最新の情報と異なる場合があります。あらかじめご了承ください。

「特別インタビュー」のコンテンツ