分享

数码相机宽容度的研究<一>

 一色惊鸿 2012-05-15
2009-04-18 01:20:31

首先,在讨论数码宽容的问题之前。简单说一下,各种"位"的区别。

        1.打开你电脑的显示设置里面,可以选的颜色位数,常用一般来说是16位,24位,32位。
16位色的色彩总数是2的16次方,65536色。24位色彩数是1677万。而32位实际上并不能显示2的32次方种颜色,而是因为加入了256级的灰阶。还有高端的显示器和显卡图形工作站可以处理到36位色,也就是24位色彩+512级的灰阶。

         所以,计算机处理图像的基准基本上可以按24位作为标准。也就是3*8位。每种红绿蓝(RGB=Red,Green,Blue)三种颜色,每种8位,等于256个级别。 三种颜色亮度都为0的时候表示不发光,那自然就是黑色。而全都发光的时候显示的是白色。

       大家都会觉得胶片的色彩过渡很细腻,原因就在这里。因为,胶片的色彩不是数学,结晶。结晶更接近于高斯分布的方式,所以过度会比较均匀。计算机处理图像时候是很明显的阶级。你会发现计算机的颜色就像楼梯一样一级一级的等比例上升。

       随着色彩位数的提高,可以显示的最低程度也是三种颜色都不发光,那么还是黑色。最高程度也是全100%发光。那还是白色。但是区别却是有的。可以理解成楼梯的高度不变。但是阶梯数变更多了。那么可以更精确的控制颜色。自然显示的颜色就多了。

      以前的每种颜色的亮度最大值是256,但是色彩位数提高了。虽然最高值依然是255,最低值是0.但是中间的划分更细了。

      最典型的,大家在PHOTOSHOP里面选择一个颜色。一般都会看到类似#A42F22这样的色彩代码。
他们都是16进制代码。 比如黑色的代码是 #000000  , 他们其实是 00,00,00这样分割的,也就是红色0,绿色0,黄色0。16进制代码中,0-9还是原来的意思,ABCEDF分别代表10,11,12,13,14,15

      那么一个纯红色的代码是多少呢。就是#FF0000.
FF=15×16+15x1=255 (最小位是乘以16的0次方,第二位是乘16的1次方以此类推。)
所以是红色100%发光,其他两种颜色不发光。


看到这里不知道是不是有人晕了。OK,不明白也不用深究,这是写给想仔细研究的人的。不懂也不影响后面的内容。


我们说一下另外数码相机的感光原理。

        我们知道显示器是做显示的工作,图片文件上一组颜色的数据,每个点的用RGB用数学的方法来显示出来。

那么数码相机上的CMOS、CCD的工作就是采集。

很多人都知道,一些入门级的相机用的是12位的D/A采样率。而高端一些的相机会用14位比如佳能的40D。

我听过一些关于14bit D/A的说法,他们大部分人是在自己的理解与知识里面做生搬硬套。
他们认为14BIT仅仅是RGB三色分别记录然后放在一起成为36位色彩。


        有一点电子知识的人都会明白。A/D转换精度其实不是这个。
       我们知道光,是也是能量。只要是能量就能转换成数字信号。声音可以,光自然也可以。
要说清楚这个原理要的篇幅可能要引申一篇论文了,我想大家也没心思看,所以我举个例,可能并不是完全严谨和合适。但是大家能明白大概的原理就行。

        我们假设把COMS/CCD元件当成一个太阳能发电器,全黑暗的环境下,他能发电的能力是0.所以他记录到的那个点获得的数据是0.非常强的光的时候,获得的电力不同,采集到的数据就不同。纯白的光线的时候,发电能力到顶端,所以采到的数据是255.

        但是他们在同一个像素点,很近的位置放置的是多个对不同颜色敏感的采集器。分别针对红绿蓝三个颜色采样。把他们光线的强弱获得的不同电压转换成数字来记录,并且最后算出一个平均值作为这个点的色彩值

所以。这样的话。一块假设14bit的D/A转换器,模拟量的范围为-10V到+10V的电压(当然不可能这么高,这里是举例)。那么20V除以2的14次方,就是A/D转换精度。

也就是说。这个感光元件的宽容度是-10V到+10的光亮。

20/(2的N次方)
N的数字越高,得到的每个阶梯间的距离就越小。就好象一个固定的高度的楼梯,他的台阶就越多。那么过渡就越细腻。自然也更方便抓到更小的细节和更微弱的光线强度的变化。这里收集到的不光是颜色数,同时也是细节。

简单总结的话就是。D/A的模拟量,位深度共同决定画面的细节精度。


这里衍生出一个新的话题。使用14bit的D/A.是不是有用呢?因为RGB三色采样都是14BIT,色彩位数就已经达到了42bit.

如果使用JPG格式。他能保存的数据只有24bit.所以其他的部分就被删除了。但是RAW文件里面保存的是42bit。

当你在打开一个RAW文件转换成JPG之前。你会做很多调整对吧。比如提高加曝光。。实际上这个过程只是在选取这42BIT中的一段24BIT的连续数据。

为什么说RAW能有更好的宽容度这是原因之一。当然。这不是RAW宽容度高的唯一原因。

那么,是不是说D/A转换精度高。宽容度就高呢?不。但是光有转换精度是不够的。采样精度跟不上也是白搭。


下面图片中可以理解到几个事情。


图中的色条是我自己在FIREWORKS里面做呃矢量图形,所以理论上是100%纯净无噪点的照片。

左图是TIF 32BIT 格式导出,右图是JPG 80%品质输出。

用LR2.3做曝光调整。

之所以JPG不用100%输出是为了模拟照片在拍摄过程中因为干扰以及压缩算法产生的脏数据。

你会发现原来一点点的差距在提高和降低多级曝光之后差距如此明显。

另外可以看到在EV变化的过程中。色彩的变化。+EV的时候,并不是单纯提高了纯色的亮度级别。而是掺杂了其他颜色。有兴趣可以下载那个图片到PS里面用拾色器去看下正常曝光图片的绿色和+1EV的绿色的色彩代码。从#00FF00变成了#9BFF76 这意味着,加EV的情况下不单纯是丢弃了数据,色彩里面混入了其他的杂色。

以及在极端情况下(+3EV)纯绿色变成了白色,蓝色变成品红,红色变成橙色。

还能发现。在+EV过程中,JPG那变图像的直方图里面原来的脏数据在一步步的放大。而tif中却没有。


上面有大概几百字关于噪点的成因和修正分析被我一个点错浏览器后退键丢失了。。。我晕。没心情补充了。。。。。


OK.如果你没有耐心看这么多内容。

那么我总结一下。

        1.JPG直接出图根本没有宽容度的说法。任何的曝光加减。都是在损失细节。只是说。这种损失可能是人主观视觉上不太能觉察的到的。(255的纯蓝色和254的蓝你能感觉出来么? :) )

         2.不要相信古老书籍上说的数码宽容度不够的说法。那是那个时代的观点。决定数码宽容度的两个关键是CMOS采样精度和D/A转换精度,随着电子技术的提高。宽容度会不断提高。
胶片有缓冲区。数码一样有。RAW就是。而且,数码宽容度的提高空间和未来前景远远要大于胶片。目前的电子技术来说,数码缓冲区大概是33%,也就是说,假设正常拍摄的宽容度是7级的话,大概还有2级的缓冲区。而且暗部宽容度比亮部宽容度高的多。

        3.这一点就是之前点错丢失的内容。但是原理分析我实在不想重新打一遍了。说说结论吧。
噪点的产生不是因为数码宽容度不够。而是在这个过程中产生了干扰。并且被放大了。参考我发的那张图片中脏数据的放大。
         数码想要获得良好的宽容度和细节,在不得已的情况下。用高ISO获得正常曝光要比 低ISO曝光不足情况下后期+EV补救的效果要好的多。 当然前提两种方法在当时的差距超过那个33%的缓冲区,否则RAW本身就有这部分缓冲,高ISO反而要带来更高的噪点。

         如果你依然不相信我说的。可以自行实验。弱光环境下。用相同的数据拍摄两组照片。一组一张ISO1600。正常曝光。ISO100,曝光不足,后期+4EV来补救。
绝对是ISO1600的画质要完胜。JPG格式最明显。RAW要略好。因为数码不是因为宽容度不够。而是因为记录的格式去掉了那些宽容度。


        4.不要迷信新机器的新技术。比如22bit D/A. 在感光元件的采集率不变的情况下。提高D/A实际上就是纯粹忽悠。不会对画质提供任何帮助。

        5.如果是网络出图。或者没有专业显示器支持下的图片后期处理。不要拘泥于色彩位数那些细节。24bit已经极限了。再高没有任何意义。因为你根本看不到。除非你有一款NB的显示器同时还有很好的图片打印、印刷设备,用来打印出图。

        发到网上的图首先是JPG固有的24BIT深度不够,其次人家显示器可以显示的颜色不够。,你有NB显示器不够,别人没有。照样看不到那么多细节。

以及。目前最强大而且还很方便能买到显示器可能不是苹果了。

试试这个吧。
HP DreamColor LP2480zx
30bit的色彩深度,支持十亿以上的色彩

------------------------------

最后...以上仅个人观点。请持保留态度,切勿完全相信。欢迎讨论以及专业人士指正错误。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多