リアルタイムレイトレエンジニアを探せ!

http://lucille.atso-net.jp/blog/?p=873 のつづき. とまあ、そんなわけで(?)、思いのほか早く、リアルタイムレイトレエンジニア、 特に SIMD 最適化とかの低レベルチューニングができるリアルタイムレイトレエンジニアを確保する必要が出てきてしまいました. 当たり前ですが、今からどこかポテンシャルのある人物を採用して、リアルタイムレイトレエンジニアとして教育していくのでは間に合わないわけで、 ヘッドハント的なことをしてどこからか引き抜いてくる必要があるわけですが、 うーん、海外含め、まあマジでリアルタイムレイトレエンジニアなんて現状希少品種なんでまず居ないわけ. 居たとしても、すでに他の仕事で忙しく無理だったりとか. 世の中、人財とタイミングですねー. いずれにせよ、なんとか探してみようと思います. で、なんでかしらないけれども、そんなことをするときに一番役立っているのが、6 年くらい前までの、僕がまだ学生のころに築いたグラフィックス関連の人脈. これもやっぱりタイミングと言えるかも(リアルタイムレイトレへの布石は 6 年前から始まっていた!なんてね). もし、オレこそリアルタイムレイトレエンジニア!と思わん方がいればご連絡ください. とくに、GPU レイトレとかではなく、 固定小数点でレイトレトラバーサルが書けるなどのスキルがあったり、 メガデモコーディングなどの低レベルチューニングができるようなスキルがあるほうが望ましいです.

NativeClient + SW raytracer = A new web 3D experience in very near future.

NativeClient が Google chrome 4.0 beta に搭載されているっぽい. そんなわけで、もう少ししたら、ネイティブな速度で動くアプリが一般的な Web ブラウザ環境で実現できそうな雰囲気があります. と、そうなると、ここで SW レイトレを走らせたら… と思いますね. (O3D は GPU に依存する&ラスタライズグラフィックスという時点で未来がない. そもそもラスタライザは死んだし) 簡単な見積もりを取ってみましょう. いまのだいたいの汎用的な PC 環境を考えると、 CPU は 2 GHz くらい. 2 GHz のマシンで、384 x 256 ピクセルの解像度のレイトレを 30 fps で実現するには, 2 * 1000 * 1000 * 1000 (Hz) / (384*256*30) = 678 cycles/pixel と、ピクセルあたり 700 サイクルあれば実現できます. SIMD 最適化レイトレエンジンなら、テクスチャも張りつつ結構それなりのモデルを扱えるような負荷量です. webContinue reading “NativeClient + SW raytracer = A new web 3D experience in very near future.”

レンダラインターン採用

以前にレンダラインターン欲しいなぁ… と書きましたが (http://lucille.atso-net.jp/blog/?p=871) このたび、我々にとって初のレンダラインターンを採用させていただきました. レンダラに興味があり、かつインターンをしていただける時間を割いていただけるとは、とてもありがたいことです. レンダラインターン(フォトリアル系、GI 系)なんて、 世界初!、とは言わなくとも、世界でもかなりまれな存在ではないでしょうか? (でも、リアルタイムレイトレ系をやらせたら世界初、かもしれませんね 🙂 ) インターンもそうですが、最近はだんだんといろいろレンダラ、リアルタイムレイトレに道が見えてきてきています. だんだんと面白くなってきました. (まあまだどうなるか分かりませんが、、、) ここでどう先行者利益を確保していくか、そろそろ本気で考えていかなくてはいけませんね(レンダラ財団設立資金確保のために).

Realtime raytracing goes mainstrem in the very near future.

日経エレクトロニクス 10 月 5 日号で、リアルタイムレイトレの記事が特集されます. http://techon.nikkeibp.co.jp/article/HONSHI/20090925/175633/ ゲームや映像制作などのグラフィックス野郎ではない、より一般的なところでもリアルタイムレイトレが注目されようとしています. 最近では NV もレイトレを重要なアプリのひとつにしようとしていますね. http://www.4gamer.net/games/099/G009929/20091001065/screenshot.html?num=009 (ところで、写真の Physics のところ、fumeFX だよね… もしかして fumeFX の会社を買収したのか?!) 大手が動き始め、一般人も注目してきて… だんだんと(リアルタイム)レイトレの波がやってきているという感じでしょうか. とはいえ、Intel や NV がバカスカとレイトレにお金を突っ込んだとして、うまくいくかというのはまた別の話. 個人的にはどっちも Winner’s curse(勝者の呪い)に陥るんじゃないかと思います. リアルタイムレイトレは新しい技術と新しいマーケットですから、ビジネスとして考えたときには、 小さい開発会社や個人でも十分これら大企業と戦える戦場になるだろうと思っています. まー、とりあえず直近の問題は、とはいえ見た目で判断すると、FPS に見られるようなグラフィックスにはレイトレはまだまだかなわないということ. 一方で、FPS などに見られるグラフィックス表現も半導体性能の向上やラスタライザ表現力が頭打ちなわけで、将来性に疑問が残ります. 実際、NV の PC 向けハイエンド GPU のマーケットはここ数半期赤字で(SEC form 10-K 参照)、 高品位 FPS ゲーム -> ラスタライズグラフィック性能向上というサイクルに陰りが見えています. Intel や NV は結局は rasterizer グラフィックスの置き換えを狙っているような感じがしますが、 それじゃうまくいかないだろーなー、と思っています. さて、そうなったときにレイトレが進む道はどこか?Continue reading “Realtime raytracing goes mainstrem in the very near future.”

The effect of importance sampling

In this post, I’d like to let you know the power of importance sampling. First of all, see the images rendered with importance sampling and without importance sampling when choosing random ray direction. (Path tracer with importance sampling) (Path tracer without importance sampling) Both use same the number of samples per pixel, thus the renderingContinue reading “The effect of importance sampling”

Caustic Graphics ray traced global illumination demonstration

(via Twitter) Caustic Graphics ray traced global illumination demonstration http://www.pcper.com/comments.php?nid=7801 おー、Caustic でパストレっぽいこともできるのね. ただ、パフォーマンスはちょっと微妙な感じ. 2M ~ 10M rays/sec くらいという感じかな. ただ、実際の製品のパフォーマンスの 1/10~1/20 と言われている FPGA で動かしてこのレベルということであれば、まあ妥当な数字かもしれません. しかし相変わらずいつもビデオでデモしているときの場所が大学の研究室っぽいのはなにか狙っているのだろうか. アジェンダが、ホワイトボードに手書きだし 🙂 でもこれで $10M くらいレイズしているんだよなー、うらやましいぜ!

Review of Cloudy: From the perspective of a renderer writer.

I’ve watch the Cloudy(Cloudy with a chance of meatballs) and I’d like to give visual impression from the perspective of a render writer. Overall, Cloudy was beautifully rendererd compared to previous motion picture Monster-house(Both used same renderer). There’s no visually recognizable Monte-carlo noises in Cloudy (noise in global illumination, noise in motion blur, etc) evenContinue reading “Review of Cloudy: From the perspective of a renderer writer.”

Watching Cloudy gathering 9/19(Sat)

せっかくなんで、某スタジオの某レンダラの出来を確認するのを裏の目的として, Cloudy(くもりときどきミートボ-ル) 鑑賞オフをしたいと思います. N 年の歳月を費やした? モーションブラーの出来はどうか!ヘアーの出来はどうか! ぜひともご確認ください. 観賞後、ご意見あれば直接某レンダラ開発チームにレポートしますんで 😉 時間と場所ですが、 9/19(土) 109シネマズ川崎 IMAX シアターになります. 残念ながらまだスケジュールは決まっていないようです。 また、インターネットからの予約も3日前からしかでません。 上映時間は夕方あたりを選択して、観賞後は(勝手に)某レンダラの出来を語る懇親会にしたいと思います. 参加希望の方は以下の URL にて、参加表明をお願いします. http://atnd.org/events/1542 おまけ 109 シネマズ川崎で、ちょうど今、ダークナイトも IMAX 上映してます.

aobench was ported for various parallel framework

Recently, aobench has been parallelized by various parallel framework. I think this is a significant leap for aobench. I mean, aobench become a good practical example to see the performance if it was paralellized by (your) parallel framework. OK, I’d like to show 3 results done by each parallel frameworks so far. Java’s parallel utilityContinue reading “aobench was ported for various parallel framework”