Graphics Interface 2006 Papers

by syoyo

Ken-Sen Huang さんが GI 2006(グローバルイルミネーション 2006 ではない)の論文リンクをまとめてくださっています。

http://myweb.hinet.net/home7/hks/Papers2006/gi2006Papers.htm

Lighting のセクションが面白そうです。

Image Synthesis using Adjoint Photons
http://www.cs.utah.edu/~shirley/papers/

光源からフォトントレーシング(フォトンマッピングではない)ではなく、
視点からのフォトントレーシングをするというもの。
vray もちょっと昔に視点からのフォトンマッピングというのを発表していましたが、それに似た感じでしょうか(density estimation をしないという点が違う)。

光源から光を伝達し、センサー(つまり視点やカメラ)でその反応を受け取るのは、その役割を入れ替えても成り立つ、つまりセンサーからフォトンを放出し、光源でその反応を受け取るのと同じであるという、随伴性(adjoint)の理論を使ったレンダリング方法を提案しています。

視点からフォトントレーシングをしたり、随伴作用素(Adjoint Operator)の理論はすでに既存研究としてありましたが、あくまで理論から抜け出せていなかったと思います。本論文の趣旨は、視点からのフォトントレーシングを実際に実装してみたら、理解するのに複雑なモンテカルロ法の理論は必要なかったり、participating media の扱いが簡単だったり、パストレよりもコードがクリーンに書けたりするよ、というのがわかりました、という感じでしょうか。

SIGGRAPH 2005 の dual photography との関連があるそうですが、私はまだこの論文を読んでいないので、cite されている論文をもう少しじっくり読んでいろいろ判断する必要がありそうです。

あとは、視点からのトレーシングの場合は、コースティクスの表現が一番の問題だと思います。明示的にコースティクスの解決については書かれていないようですが、インポータンスの大きい部分に集中してサンプルレイが放たれるとあるので、基本的にはレイをいっぱい飛ばして力技で解決するということのようです。収束がどれくらいなものなのかについてもきちんと書いていないのでちょっとよくわかりません。
基本的には本手法を使ったとしても、それなりのレイトレの回数が必要です。論文では、終夜でレンダリングすれば今の CPU であれば一兆レイ飛ばせる(終夜を 12 時間とすると秒間約2300 万レイを飛ばせる計算。これは 1 CPU で実現できるなら、それなりにインタラクティブレイトレに近いパフォーマンスですね)ので、我々が扱うシーンのレンダリングでは問題ないとありますが…

とはいえ、大きな利点は、理論が簡潔で、実装も簡潔であるとのこと。最近のモンテカルロレイトレは複雑な方向に進みつつあると思うので、安い(?)、早い、うまい(?)なアルゴリズムというのは重要だと思います。
さらに、フォトンマッピングのように density estimation ではないので、その点では将来性のあるアルゴリズムであると思います

ただ、その割には擬似コードや背景知識の説明があまり親切でなかったり、我々の galileo レンダラに実装しましたとあるけどコードは公開されてない、みたいな所で損している感じがしてちょっと残念です。
(ここらへんはいずれ TR(テクニカルレポート) で詳細な解説付きなのが出そうですから、それを待つのもよさそうです)

Advertisements