首页 » 我的数码 » 深入剖析DC的储存格式,为什么要用RAW

深入剖析DC的储存格式,为什么要用RAW

 

  以前,我们使用的DC多数只有JPEG这一种存储格式,我们没什么选择的余地,但随着数码相机性能的提高,以前只有专业机才有的功能渐渐的变成了多数相机普及的功能,比如MF功能、多点对焦、高速连拍等功能,而RAW、TIFF等存储格式的增加也是其中一个方面。那么,这三种格式到底有什么差别呢,它们各有什么特点呢?对于它们的使用,一直有很多争议,有人甚至认为使用RAW的就不是好的摄影师(因为用RAW就是为了后期处理、而依靠后期处理的就不是好摄影师)……看了下面的讨论就会明白,这种看法是多么的无聊。
  不过,在讨论之前,首先要说明一下数码相机的成像原理:
  我们手里的所有数码相机都能照出彩色的图像,但实际上绝大多数的数码相机的感光元件只能记录灰度信息(除了Foveon X3感光元件,扫描式数码后背和多次曝光数码后背以外)!由于每个感光单元只能感受RGB三元色中的某一种颜色的灰度值,所以我们要将3种颜色的感光元件分开间隔布置,布置成如下次序

R  G  R  G  R  G
G  B  G  B  G  B
R  G  R  G  R  G
G  B  G  B  G  B

  大家可以看出,绿色占了总数的一半,而红色和蓝色各占25%。这样做的原因是因为人眼对绿色更敏感,能分辨出更多的细节,另外绿色也占据了可见光谱中最重要和最宽的位置,所以这样布置效率最高。

红色通道
(占总像素25%)

绿色通道
(占总像素50%)

蓝色通道
(占总像素25%)

  从上面的介绍我们可以看到,这样得到的结果只是一些3种原色不同亮度的象素组成的马赛克而已,但实际上,我们需要的是每个象素都同时记录3种颜色,这时,我们就要进行彩色插值,把那些丢失掉的色彩信息经过对相邻像素的色彩信息分析之后被重新估算出来。实际上,一个好的彩色插值算法是十分复杂的,主要面对的问题是既要解析细节还要仍能正确还原颜色。
  在最极端的情况下,我们会遇到这样的情况:拍摄一个十分小的黑白相间条纹,间隔小到刚刚能覆盖住每一个像素单元。这时,这种插值算法就会出现问题:邻近的绿色像素单元不会给算法提供任何新的信息,所以算法就不知道感应白色的红色像素单元红到什么程度,同理也不知道邻近的蓝色像素单元蓝到什么程度(其实都应该红到或者蓝到最淡,因为是白色)。当然啦,这样的情况在实际生活中非常罕见。实际上,就算感光元件捕获的是十分明亮饱和的红色,仍然存在绿色和很少量的蓝色信息。我们上面举的例子中的问题在于,正确估算颜色需要一定量的空间信息。如果只有唯一一个像素单元捕获红色信息,那么我们将没有办法重新构建出这个特定像素单元的颜色。
  由于上面的原因,我们得到的图像会有莫尔纹(表现为无关的红、绿、蓝色点或者导致变色),绝大多数相机为了防止这种问题都采用了在感光元件前面安装低通滤镜的方法(AA Filter, Anti-Aliasing Filter)。这个滤镜实际上起到了模糊影像,把色彩信息分布到邻近像素单元的作用。
  RAW数据就是由感光元件记录的图像的所有灰度数据。为了得到最终可用的图像,这些RAW数据必须经过所谓的“RAW转换程序(RAW Converter)”的处理(包括去马赛克)。JPEG格式的数码相片实际上使用了整合在相机固件内的RAW转换程序进行全部转换处理。
  把这些基本知识解决后,我们就可以介绍着3种图像格式了。
  RAW格式的全称是RAW Image Format,是拍摄时从影像传感器得到的电信号在模数转换(A/D转换)后,不经过其他处理而直接存储的影像文件格式,该格式的影像文件即没有将每个光敏元件得到的电信号与周围象元所得到的电信号进行加权平均化而得到彩色信息,也没有进行过清晰度调整、反差调整、色饱和度调整以及白平衡调整(这点最重要,不需要在每次拍摄前都对白平衡进行设置,可以把更多精力投入到摄影中去),反映的是从影像传感器中得到的最原始的信息,可以说是真正意义上的数字底片。RAW的图片尺寸相对较大,具体计算方法如下:尺寸大小=(拍摄象素数×每种原色的色位位数)/8。
  它的优点是影像质量最高,同时图像尺寸适中,而且,很多参数可以进行后期调整,并且不影响画质。缺点是RAW文件不同于BMP、JPEG等文件类型,RAW的代码中没有头文件,这使得很多软件无法支持对它的读取和编辑,通用性差。不过,随着技术的进步,越来越多的软件支持对RAW格式的浏览和编辑,比如PHOTOSHOP新发布的RAW插件,就可以对RAW进行编辑,而最新版的ACDSEE也加入了对RAW格式的支持。此外,还有RAW转换程序,例如Adobe Camera RAW 或Phase One Capture One DSLR对RAW进行格式转换。
  但是,我们使用RAW格式拍摄时也不是无所顾忌,最起码的要求是景深控制正确、曝光正确,虽然在电脑上可以进行曝光量的后期调整,但由于数码相机(包括数码单反)的宽容度还是于胶片有一定差距的,如果过曝或者欠曝,将会导致亮部细节或者暗部细节丢失严重,即使后期调整也比较困难。
  所以,目前多数专业的摄影师、或者说任何稍微懂得点电脑的摄影师,只要在存储卡允许的条件下都会使用RAW,取得尽可能好的素材为以后的再创作留下更大的空间。
  TIFF格式的全称是Tagged Image File Format,是一种无损压缩格式,它保存的图像信息和RAW是相等的,不过它的尺寸就比RAW大许多了,具体的计算公式是尺寸大小=(拍摄象素数×每种原色的色位位数×3)/8。TIFF格式又分为TIFF-RGB和TIFF-YCbCr两类,其中多数相机所说的TIFF是TIFF-RGB。TIFF-YCbCr则是将亮度信号和色度信号分开表示,其中色度信号只有2个,Cb是R(红)和G(绿)两种原色之差,Cr是G(绿)B(蓝)两种原色之差,在处理时可以通过亮度Y与两个色差信号的线性运算反推出三个原色信号的亮度大小。TIFF-YCbCr比TIFF-RGB缩小了1/3,但是,付出的代价就是不利于软件对它的读取和编辑。所以,现在数码相机仍旧是使用TIFF-RGB的格式。


TIFF原理

  同RAW相比,二者的共同点是都保存了最完整的信息量,而且,都可以用软件修改诸如白平衡之类的参数,便于后期修改。而与RAW相比,TIFF的优点是方便软件读取,便于进行编辑,缺点是文件大小太大,极大的占用存储空间,不过,由于数码伴侣的盛行,使得我们对存储空间的要求不是很高,所以,TIFF越来越收到人们的欢迎。
  JPEG(Joint Photographic Expert Group)是联合图像专家小组的英文缩写,这个小组专门为连续色调静止图像压缩编码制定了一个标准:Digital Commpression and Coding of Continuous Still Image(连续静止图像数字压缩编码标准),也称JPEG标准,现在,JPEG标准已经成为WINDOWS下静止图像最常用的压缩编码标准。
  JPEG属于一种有失真压缩,即我们平时所说的有损压缩,所生成的压缩数据经过解压缩后重建的图像与原图像只能在视觉上保持一致,但压缩比越高,视觉上的一致性越差,如果压缩比不超过1:4的影像质量,人们很难看出其与不压缩影像之间的差别的。那么JPEG的图像损失是在哪里出现的呢?要说明这个我们首先要解释一下JPEG的压缩原理。



  如上图,在这个算法当中,我们都是以象素为单元对整个图像分成多个8×8的子块,然后对这个子块进行DCT变换(离散余弦变换),然后进行量化、熵编码,然后得到压缩数据,在解压(浏览)过程时,压缩后的数据经过熵编码解码器、反量化器、IDCT(离散余弦反变换)后重建图像,然后处理下一个8×8的子块。通俗的来说,在每个8×8的单元中,对单元中的每个原色进行对比,然后将相近亮度判断为统一亮度,这样,表示起来就明显的简化,从而达到压缩。但是,在解压过程中,遇到子块中的同一亮度信息,系统就会仍旧把每个象素解压回这同一个亮度,从而造成损失。所以说,JPEG的损失主要是在DCT变换部分。量化这个概念,通俗的说就是把相近的数值归为一类,比如,如果规定量化后的数值为1、2、3等整数,那么,量化器接收到1.7,则输出2,接收到3.1,则输出4,这样必然会产生失真。不过,相对与DCT的失真来说,它的失真算是很小的了(因为量化间隔越小,量化精度越高,失真越小);熵编码同样会造成数据损失,不过也是比较少的。
  说来说去,JPEG的损失这么高,那我们为什么还要采用这种编码呢?虽然它会损失画质,但照片所占空间会大大的缩小,采用不同的压缩比,它可以比TIFF节省50%到90%的空间!而且,由于在WINDOWS中的普及,所以针对JPEG的软件也非常多,我们编辑起来也非常方便,所以,这种格式是家庭用户采用的主要图片格式。

对JPEG解压后的位图文件,从效果上开看非常让人满意

  从以上讨论我们可以看出,之所以会产生多种格式并存的局面,是因为它们各自的特点截然不同,可以满足各种用途的需要:
  如果需要最完整的图像信息,并且善于使用支持RAW格式的专用编辑软件,那么可以选择RAW格式;如果需要完整的图片信息,而且想通过大众化的工具进行编辑,同时对文件所占的存储空间要求不高,可以采用TIFF格式;如果只是一般用户使用,存储卡有限,而且想在后期进行方便的处理,那么JPEG是首选。

作者:转载 来自:网易

原文链接:深入剖析DC的储存格式,为什么要用RAW,转载请注明来源!

如果您有更好建议,您可以联系我们!

0