Bootstrap

色差信号与RGB信号

色差信号与RGB信号

              目前市面上,消费者能看到有三种视频讯号,分別是
  Composite video,S-Video (Y/C Video),Component video

  在电视没有AV端子之前,如果要看录影机则需将录影机來的讯号调变成电视可以接受的频道的频率,比如说是第13台,方可从电视里看到录影带的画面。后來AV端子出现了,audio与video各走各的路,此时的video信号即是composite video signal。所谓composite(混合)乃是指其亮度(luminance)信号与色度或彩度(chrominace)信号是夾杂在一起传送的。
  到了S-VHS与Hi-8出來后,又多了一种端子,即S端子。S端子乃是将亮度信号( Y )与彩度信号( C )分开传送,我自己有个有趣的经验,就是有一条S讯号线被我拔來拔去,后來居然线里面接触不良,结果出來的画面变成黑白的。注意了,同样是彩度(Chrominace)信号,不同的电视系统所代表的也不同。如NTSC的彩度信号是以IQ信号表之,而PAL(Phase Alternate Line) 的彩度信号是以UV信号表示。
  隨著DVD及投影电视的兴起,消费者注意到另一种视频信号的兴起,即是component signal或称色差信号00。因为component signal以DVD来说(严格说來是MPEG,请参阅文后之注释)是由Y, Cr, Cb所组合而成的,Y即是亮度信号,CrCb是色度或彩度信号。
  本文的目的即再对這些不同的信号做一简介,并解释为何要以色差信号來作为传递之讯号,以免有些读者面对越來越多的输出入端子,有点不知所措,甚至买了不相容的器材。
为什么要用色差(Color Difference)信号?
  新型的DVD player后方的输出端子除了常见的AV端子及S端子外,又多了一組Y, Cr, Cb,即是色差輸出端子。雖然目前絕大部分的电视立功没有色差输入端子,但可預料的是就如同目前的S端子,以后的色差(component signal)输出入端子也会成为电视的标准配备(至少在较为igh-End的电视) 。
  如同本文后面所提,MPEG是以色差信号为编码之输入信号,因此在解码时如同fig. 1,即是先将色差信号解出,再经过一个video signal编码器转变成一般的YC信号及composite(AV)信号。音响界常说『少只香炉,少个鬼』,所以有很多无音控前級扩大机或有CD可直接输入之后级扩大器,既然如此,在DVD player上也可如法泡制,在色差信号送到video signal编码器之前就直接输出。其实这样的想法其实这就跟当初S端子是一样的,目前市面上以YC讯号來记录影像的有录影机(VHS,S-VHS, Beta, 8mm,Hi-8) ,LD则是將完整的video signal记录到雷射碟片上。所以LD player的YC分离电路做得好时,建议读音者可以使用S端子,如此就可以跳过电视机本身的YC分离电路。反之,如果读音者使用的是一部远比LD player高級的电视时,您也不必坚持非得用S端子,因为电视里头的YC分离电路可能比LD player的效果來的好。
或许有读者会问:那电视里头可需再一层的手续来处理这component signal吗?
首先我们看看电视讯号是如何产生的,请参考Fig.2

最前面是RGB三原色之摄影机,实际的摄影机当然只有一个,透过RGB之filters取出不同顏色之信號,然後經過矩陣電路轉成Y, R-Y, B-Y讯号,这样的讯号还不能传输,必需将R-Y与B-Y(这两个讯号即是彩色讯号)调变至高频(NTSC是3.58MHz)再与Y讯号相加,然后再调变至该台的频率再发射出去。
  最主要是有两点考虑:一为相容性,二为频宽。
  电视机这头呢?当然就是反其道也。如下图所示
点击看大图

所以读者们可从上图得知,色差输入的讯号所需经过的线路比composite signal与YC信号要经过的线路少。假设您现有的电视并没有component signal input,则原有DVD解出來的色差讯号就需经过NTSC(or PAL) Encoder,如此您家的电视才可接收DVD player出来的影像,可是这么一來決定DVD影像的好坏就又多了个因素,那就是这个encoder。其实这个encoder就有些像CD player中的DA converter IC(如Burr Brown PCM63PK, PCM1702等等) ,它们的好坏決定了输出品质的好坏。当然也不是完全決定,就好比CD player中的数位滤波器,AV decoder也会影响品质,不过话说回來如果片子的制作过程就很粗糙,那读音者们也別太指望输出的品质。
  那可能又有一些读者要问了,既然『少只香炉,少个鬼』,为什么不通通用RGB來传送video signal呢?简单的說,有两个原因,一是相容性,二是频宽的。
Compatible相容性
  最早的电视是黑白电视,也就是当初的电视台只需发射(以那时的技术也只能发射)黑白的电视讯号。但后来要推出彩色电视系统时,也需顾忌到旧有的黑白电视与彩色电视信号间的相容性。于是就有将黑白(亮度)信号与彩色信号分开的做法彩色信号,如此一来,对于黑白电视来说,只要把电视台送过来的信号中的黑白信号解出即可;而彩色电视则把彩色信号一起解开就可收看到彩色的画面。這是为什么要YC分离的原因之一。

Bandwidth频宽

  以色差信号来记录影像的另一方面是为了节省频宽。

  人的眼睛对亮度信号比彩色信号來的敏感,也就說人對彩色的東西解析度的要求沒有黑白來的高,這也就是我們常看到用來判断电视解析度的图形都是以黑白为主,而不是以彩色为主,所以亮度信号的频宽一定比彩色信号來的宽。

  人的眼睛对亮度信号比彩色信号來的敏感,。所以彩色信号的频宽就不必像黑白(亮度)信号来的高,利用肉眼对色彩的特性,我们可将其频宽降至1.5MHz(亮度信号所需频宽约4.2MHz)。如果您要用RGB來传送的話,就需要传送三个彩色信号而非两个色差信号。

Y, Cr, Cb

  再以数位视频讯号标准CCIR601来说,他的YCrCb取样方式就有4:4:4, 4:2:2及4:1:1等不同方式。以NTSC(525条扫瞄线,每秒60个图埸field)下的4:2:2为例,

  每条扫瞄线共取样858个亮度信号(Y)及429个彩度信号(CrCb) ,也就是说其取样频率分別为858x525x30=13.5Mhz(亮度信号)及6.75Mhz彩度信号。所以4:2:2即是当Y每取四个点时,Cr及Cb则取二个点。

  YCrCb信号是由CCIR(International Consultative Committee for Radio )所定的一种数位视频信号标准,由于最早是出现在CCIR recommendation 601內,有時又把这种标准称为CCIR 601标准。YCrCb与YUV的定义基本上是相同的,不过CrCb较UV信号少了前面的系数(即0.493与0.877) 。

Y,U,V

  YUV是用於PAL电视系统之标准。UV并非任何字的一个单字的字首。

     Y="0".299R 0.587G 0.114B

  注意到0.299 0.587 0.114=1.0三原色的系数之所以不同是因为人的眼睛对不同波長的顏色有著不同的敏感度。

     U="-0".147R-0.289G 0.436B=0.493(B-Y)

     V="0".615R-0.515G-0.1B=0.877(R-Y)

  所谓R-Y可以想成將紅色(Red)減掉亮度信号,实际上呢并不完全正确,一个正的B-Y应该是偏紫的紅色,負的B-Y应该是偏藍的绿色。而正的B-Y相当于偏紫的藍色,负的B-Y相当于偏绿的黃色。

Y,I,Q

  YIQ是用于NTSC电视系统之标准。I表示In-phase,Q表示Quadrature-phase,Q信号的相位角较I信号多90度。在彩色电视系统里,彩色信号是由一向量系统(就是各位以前学的极座标)来表示,向量的大小用來表示色彩的Saturation,角度(或說是相位)则是表示色彩的Hue,如下图。

  简单的说,有一个基准的彩色讯号,任何进来的彩色讯号只要与这个基准的彩色讯号相比,就可以知道这个讯号的大小与相位,也就知道这个讯号所代表的顏色。

  Y=0.299R 0.587G 0.114B
  I=0.596R-0.275G-0.321B=0.736(R-Y)-0.268(B-Y)
  Q=0.212R-0.523G 0.311B=0.478(R-Y) 0.413(B-Y)

  学过线性代数的人都知道,上述的這些式子都是RGB的一种线性組合。假设所有的顏色都可以RGB表示的话(也就是說每种顏色可以说是多少红色加上多少绿色再加上少藍色组合而成) ,我们可把RGB当成彩色座标系的座标轴,当然也可以用R-Y,B-Y当成彩色座标系的座标轴。但是这座标轴的选择如果再配合上肉眼对不同顏色光之敏感度则可大幅減少传播时所須知资讯量。

MPEG的信号

  首先您要知道MPEG-1的解析度是很低的,只有352x240个pixels(NTSC,PAL與SECAM又不同了),一秒30个frame,要记住一开始的MPEG-1是在电脑屏幕上显示的,而标准的VGA解析度是640x480。影像是彩色的,但已转换成YUV空间表示,而其中的彩度(chrominance)信号U,V更降为176x120 pixels,而实际上由于人类对彩度沒有来的对亮度敏感,所以即使彩度解析度低到这种地步,我们也感觉不大出來。补充一点MPEG-1一定是non-interlace(非交错)的影像。 MPEG 2则interlace与progressive皆可。

  那为什么要用352x240的解析度?

  因为这是从职业用的数位video器材标准CCIR-601來的。在NTSC的标准下,一秒有60个field,每个field有720x243的解析度,別忘了这是interlace的。至于在彩度部份则是360x243,也是有60显field,interlace。明显的可以看出在水平方向亮度的解析度,只有720的一半。至于MPEG1的入型式叫SIF,是由CCIR-601,在水平方向減一半,时间部份也減一半,彩度的垂直部份再減一半。<

;