首先,我们要知道普通光学相机在自然光下拍的照片其实并不包含完整的光谱信息,一般在遥感领域,多/高光谱数据应该包含近红外波段,例如Landsat有如下波段:
编号 波长(µm)
1 0.433–0.453 深蓝/紫外
2 0.450–0.515 可见光-蓝
3 0.525–0.600 可见光-绿
4 0.630–0.680 可见光-红
5 0.845–0.885 近红外
6 1.560–1.660 短波红外
8 0.500–0.680 短波红外
8 0.500–0.680 全色
9 1.360–1.390 主要用于云层
10 10.6-11.2 热红外
11 11.5-12.5 热红外
由此可见,普通的可见光相机只记录了2/3/4三个波段的信息,其它波段都被丢掉。并且,对于可见光相机而言,RGB三色图像的三个波段是通过拜耳阵列排列在传感器上的,每个颜色的像素上都覆盖着对应颜色的滤色片。接下来具体分析一下各种图像的特点及区别。
一、RGB图像
正如上面所讲,RGB图像只记录了三个波段信息,其他波段信息都已经丢掉了,所以RGB图像也无法恢复到高光谱图像。
二、全色图像
全色图像是单通道图像,全色是指全部可见光波段0.38~0.76um,全色图像为这一波段范围的混合图像。因为是单波段,所以在图像上显示的是灰度图。这种全色遥感图像一般空间分辨率高,但无法显示地物色彩,也就是光谱信息少,因此,我们通常会将全色图像和多波段图像进行融合,得到高分辨率的彩色信息图像。
补充:这里说一下分辨率和像素的概念。
(1)像素(px