Quantcast
Channel: 全体的にこれは酷い
Viewing all articles
Browse latest Browse all 34258

"まずは色深度の話から。現実問題、アニメでは16bitで充分でもあろうし、8bitでやっていることろも少なくないかと思います。またほとんどのフッテージが8bitでやってくるでしょうし、出力も8bitのTG..."

$
0
0

まずは色深度の話から。

現実問題、アニメでは16bitで充分でもあろうし、8bitでやっていることろも少なくないかと思います。またほとんどのフッテージが8bitでやってくるでしょうし、出力も8bitのTGAやAnimation圧縮などのレガシーなQuickTimeを使用することが多いと思います。
途中の作業経過であるコンポジット作業時でのみ16bitを使用することで、階調飛びなどを抑制する(あるいはできると信じる)のであれば、更に上の32bpcは不要なのかという話です。

色深度が多くなると使える色が増えるというのが一般的な認識かと思います。
もちろんその通りなのですが、8または16bpcと32bpcではちょっと意味合いが違います。16bpcは8bpcより多くの色が使えるという意味で間違いないのですが、どちらも整数値です。おなじみの8bpcなら0-255で表されます。

これに対して32bpcでは0.0-1.0という浮動小数点を用います。
完全な黒が0.0で完全な白が1.0となるのですが、重要なのは0.0以下または1.0以上のオーバーレンジの値を保持できることです。もちろん出力された画像では黒または白として表示されますが、データ的にはディテールを保持しています。

出力できるデータは0.0-1.0なのですが、明部を犠牲にして暗部を浮き立たせたり、逆に暗部を犠牲にして明部に露出を合わせたり、あるいはそれらを元に戻したり…といったことが可能になります。

この32bpcによく似たフォーマットにCineonがあります。Cineonでは10bitの色深度内にオーバーレンジを格納しています。故にブラック/ホワイトのポイントを設定する必要があります。更にDPXはCineonに拡張性を与えた対応できるカラースペースを増やしたものです。この辺の話は別の機会に詳しく。

32bpcの画像フォーマットの利点は上記の通りですが、32bpcで直接撮影できるカメラなどは一般的ではなく、今で言えばR3Dなどからの変換時の選択肢といったところでしょうか。また3DCGIなども計算コストなど諸々の制限で32bpcのオーバーレンジに対応するようなレンダリングをすることはあまりないかと思います。トーンマップなどと呼ばれるHDRIを作成することも考えられますが、複数の異なる露出を正確に撮影することを考えるとこれもあまり一般的ではありません。

では、32bpcは現状ではオーバースペックで、使いどころのないものかというと、実は非常にコンポジットにとって重要な要素を含んでいます。

今回は非常に初歩的なことだけ書いて終わってしまいましたが、もう少し色深度の話が続きます。

(続く)


- AENotes: AE Notesアーカイブ

Viewing all articles
Browse latest Browse all 34258

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>