决定手机摄像头性能的参数有哪些
1、光圈大小,如f2.2 、f2.4 、f2.6
f值越小,光圈越大,图像性能越好。暗光环境下,光圈大的镜头拍的清楚。
2、快门速度,这一点要自己体验
3、像素值其实没用,放大后噪点很多。手机摄像头的感光元件面积很小。
1600w像素数码相机拍摄效果比500w像素的单反相机差的原因是感光元件的面积不同
数码相机是0.4寸的感光元件,而单反的感光元件的面积就可能就有1寸还多了,
感光元件面积大,所以单位像素的利用价值高,图像放大也不会模糊
手机摄像头上的参数:1.3MEGA PIXELS,f=5.0mm 1:2.8表示什么?
130万像素,焦距=5.0毫米,1:2.8 可能是成像比之类的
手机CMOS摄像头是什么
cmos就相当于摄像头的处理芯片也叫做传感器,这个芯片主要用于外界光线后转化为电能,再透过芯片上的模拟转换器将获得的影像讯号转变为数字信号输出。在进行对光感的分析,还原色彩,去除杂质等一系列的运算,使得照片能够看起来非常的清晰。
不过手机上的cmos采用的是最差的芯片,就算是拍照手机也不的cmos芯片也不能和相机里的cmos对比。因为手机的cmos芯片很小,要比相机里的cmos小很多,在对相片的分析和色彩还原,去除杂质等效果都有很大的差异。
不过手机上的cmos采用的是最差的芯片,就算是拍照手机也不的cmos芯片也不能和相机里的cmos对比。因为手机的cmos芯片很小,要比相机里的cmos小很多,在对相片的分析和色彩还原,去除杂质等效果都有很大的差异。
CMOS摄像头
CMOS经过加工也可以作为数码摄影中的图像传感器,CMOS传感器也可细分为被动式像素传感器。CMOS传感器具有较高的灵敏度、较短曝光时间和日渐缩小的像素尺寸。由于许多场景的拍摄都是在照明条件很差的情况下进行的,因此拥有较大的动态范围将是十分有益的。
CMOS经过加工也可以作为数码摄影中的图像传感器,CMOS传感器也可细分为被动式像素传感器。CMOS传感器具有较高的灵敏度、较短曝光时间和日渐缩小的像素尺寸。由于许多场景的拍摄都是在照明条件很差的情况下进行的,因此拥有较大的动态范围将是十分有益的。
现在手机的摄像头都是CMOS摄像头,很少采用其他的传感器。因为CMOS的摄像头价格低廉,成像一般。对于手机来说,CMOS传感器已经够用了。
手机摄像头
作为手机新型的拍摄功能,内置的数码相机功能与我们平时所见到的低端的(10万-130万像素)数码相机相同。与传统相机相比,传统相机使用“胶卷”作为其记录信息的载体,而数码摄像头的“胶卷”就是其成像感光器件,是数码拍摄的心脏。感光器是摄像头的核心,也是最关键的技术。
摄像头按结构来分,有内置和外接之分,但其基本原理是一样的。
按照其采用的感光器件来分,有CCD和CMOS之分:
CCD (Charge Coupled Device,电荷耦合组件)使用一种高感光度的半导体材料制成,能把光线转变成电荷,通过模数转换器芯片转换成数字信号,数字信号经过压缩以后由相机内部的闪速存储器或内置硬盘卡保存,因而可以轻而易举地把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD由许多感光单位组成,当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。它就像传统相机的底片一样的感光系统,是感应光线的电路装置,你可以将它想象成一颗颗微小的感应粒子,铺满在光学镜头后方,当光线与图像从镜头透过、投射到CCD表面时, CCD就会产生电流,将感应到的内容转换成数码资料储存起来。CCD像素数目越多、单一像素尺寸越大,收集到的图像就会越清晰。因此,尽管CCD数目并不是决定图像品质的唯一重点,我们仍然可以把它当成相机等级的重要判准之一。目前扫描机、摄录放一体机、数码照相机多数配备CCD。
CCD 经过长达35年的发展,大致的形状和运作方式都已经定型。CCD 的组成主要是由一个类似马赛克的网格、聚光镜片以及垫于最底下的电子线路矩阵所组成。目前有能力生产 CCD 的公司分别为:SONY、Philps、Kodak、Matsushita、Fuji和Sharp,大半是日本厂商。
CMOS (Complementary etal-Oxide Semiconductor,附加金属氧化物半导体组件)和CCD一样同为在数码相机中可记录光线变化的半导体。CMOS的制造技术和一般计算机芯片没什么差别,主要是利用硅和锗这两种元素所做成的半导体,使其在CMOS上共存着带N(带–电)和 P(带+电)级的半导体,这两个互补效应所产生的电流即可被处理芯片纪录和解读成影像。然而,CMOS的缺点就是太容易出现杂点,这主要是因为早期的设计使CMOS在处理快速变化的影像时,由于电流变化过于频繁而会产生过热的现象。
CCD 和CMOS各自的利弊,我们可以从技术的角度来比较两者主要存在的区别:
信息读取方式不同。CCD传感器存储的电荷信息需在同步信号控制下一位一位的实施转移后读取,电荷信息转移和读取输出需要有时钟控制电路和三组不同的电源相配合,整个电路较为复杂。CMOS传感器经光电转换后直接产生电流(或电压)信号,信号读取十分简单。
速度有所差别。CCD传感器需在同步时钟的控制下以行为单位一位一位的输出信息,速度较慢;而CMOS传感器采集光信号的同时就可以取出电信号,还能同时处理各单元的图象信息,速度比CCD快很多。
电源及耗电量。CCD传感器电荷耦合器大多需要三组电源供电,耗电量较大;CMOS传感器只需使用一个电源,耗电量非常小,仅为CCD电荷耦合器的1/8到1/10,CMOS光电传感器在节能方面具有很大优势。
成像质量。CCD传感器制作技术起步较早,技术相对成熟,采用PN结合二氧化硅隔离层隔离噪声,成像质量相对CMOS传感器有一定优势。由于CMOS传感器集成度高,光电传感元件与电路之间距离很近,相互之间的光、电、磁干扰较为严重,噪声对图象质量影响很大。
摄像头按结构来分,有内置和外接之分,但其基本原理是一样的。
按照其采用的感光器件来分,有CCD和CMOS之分:
CCD (Charge Coupled Device,电荷耦合组件)使用一种高感光度的半导体材料制成,能把光线转变成电荷,通过模数转换器芯片转换成数字信号,数字信号经过压缩以后由相机内部的闪速存储器或内置硬盘卡保存,因而可以轻而易举地把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD由许多感光单位组成,当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。它就像传统相机的底片一样的感光系统,是感应光线的电路装置,你可以将它想象成一颗颗微小的感应粒子,铺满在光学镜头后方,当光线与图像从镜头透过、投射到CCD表面时, CCD就会产生电流,将感应到的内容转换成数码资料储存起来。CCD像素数目越多、单一像素尺寸越大,收集到的图像就会越清晰。因此,尽管CCD数目并不是决定图像品质的唯一重点,我们仍然可以把它当成相机等级的重要判准之一。目前扫描机、摄录放一体机、数码照相机多数配备CCD。
CCD 经过长达35年的发展,大致的形状和运作方式都已经定型。CCD 的组成主要是由一个类似马赛克的网格、聚光镜片以及垫于最底下的电子线路矩阵所组成。目前有能力生产 CCD 的公司分别为:SONY、Philps、Kodak、Matsushita、Fuji和Sharp,大半是日本厂商。
CMOS (Complementary etal-Oxide Semiconductor,附加金属氧化物半导体组件)和CCD一样同为在数码相机中可记录光线变化的半导体。CMOS的制造技术和一般计算机芯片没什么差别,主要是利用硅和锗这两种元素所做成的半导体,使其在CMOS上共存着带N(带–电)和 P(带+电)级的半导体,这两个互补效应所产生的电流即可被处理芯片纪录和解读成影像。然而,CMOS的缺点就是太容易出现杂点,这主要是因为早期的设计使CMOS在处理快速变化的影像时,由于电流变化过于频繁而会产生过热的现象。
CCD 和CMOS各自的利弊,我们可以从技术的角度来比较两者主要存在的区别:
信息读取方式不同。CCD传感器存储的电荷信息需在同步信号控制下一位一位的实施转移后读取,电荷信息转移和读取输出需要有时钟控制电路和三组不同的电源相配合,整个电路较为复杂。CMOS传感器经光电转换后直接产生电流(或电压)信号,信号读取十分简单。
速度有所差别。CCD传感器需在同步时钟的控制下以行为单位一位一位的输出信息,速度较慢;而CMOS传感器采集光信号的同时就可以取出电信号,还能同时处理各单元的图象信息,速度比CCD快很多。
电源及耗电量。CCD传感器电荷耦合器大多需要三组电源供电,耗电量较大;CMOS传感器只需使用一个电源,耗电量非常小,仅为CCD电荷耦合器的1/8到1/10,CMOS光电传感器在节能方面具有很大优势。
成像质量。CCD传感器制作技术起步较早,技术相对成熟,采用PN结合二氧化硅隔离层隔离噪声,成像质量相对CMOS传感器有一定优势。由于CMOS传感器集成度高,光电传感元件与电路之间距离很近,相互之间的光、电、磁干扰较为严重,噪声对图象质量影响很大。
在相同分辨率下,CMOS价格比CCD便宜,但是CMOS器件产生的图像质量相比CCD来说要低一些。到目前为止,市面上绝大多数的消费级别以及高端数码相机都使用CCD作为感应器;CMOS感应器则作为低端产品应用于一些摄像头上。是否具有CCD感应器一度成为人们判断数码相机档次的标准之一。而由于 CMOS的制造成本和功耗都要低于CCD不少,所以很多手机生产厂商采用的都是CMOS镜头。现在,市面上大多数手机都采用的是CMOS摄像头,少数也采用了CCD摄像头。
连拍原理
连拍功能(continuous shooting)是通过节约数据传输时间来捕捉摄影时机。连拍模式通过将数据装入数码相机内部的高速存储器(高速缓存),而不是向存储卡传输数据,可以在短时间内连续拍摄多张照片。由于数码相机拍摄要经过光电转换,A/D转换及媒体记录等过程,其中无论转换还是记录都需要花费时间,特别是记录花费时间较多。因此,所有数码相机的连拍速度都不很快。
连拍一般以帧为计算单位,好像电影胶卷一样,每一帧代表一个画面,每秒能捕捉的帧数越多,连拍功能越快。目前,数码相机中最快的连拍速度为7帧/秒,而且连拍3秒钟后必须再过几秒才能继续拍摄。当然,连拍速度对于摄影记者和体育摄影受好者是必须注意的指标,而普通摄影场合可以不必考虑。一般情况下,连拍捕捉的照片,分辨率和质量都会有所减少。有些数码相机在连拍功能上可以选择,拍摄分辨率较小的照片,连拍速度可以加快,反之,分辨率大的照片的连拍速度会相对减缓。
通过连续快拍模式,只须轻按按钮,即可连续拍摄,将连续动作生动地记录下来。
光学变焦和数码变焦原理
光学变焦(Optical Zoom)是通过镜头、物体和焦点三方的位置发生变化而产生的。当成像面在水平方向运动的时候,如下图,视觉和焦距就会发生变化,更远的景物变得更清晰,让人感觉像物体递进的感觉。
显而易见,要改变视角必然有两种办法,一种是改变镜头的焦距。用摄影的话来说,这就是光学变焦。通过改变变焦镜头中的各镜片的相对位置来改变镜头的焦距。另一种就是改变成像面的大小,即成像面的对角线长短在目前的数码摄影中,这就叫做数码变焦。实际上数码变焦并没有改变镜头的焦距,只是通过改变成像面对角线的角度来改变视角,从而产生了“相当于”镜头焦距变化的效果。
所以我们看到,一些镜头越长的数码相机,内部的镜片和感光器移动空间更大,所以变焦倍数也更大。我们看到市面上的一些超薄型数码相机,一般没有光学变焦功能,因为其机身内根部不允许感光器件的移动,而像索尼F828、富士S7000这些“长镜头”的数码相机,光学变焦功能达到5、6倍。
数码变焦(Digital Zoom)也称为数字变焦,数码变焦是通过数码相机内的处理器,把图片内的每个象素面积增大,从而达到放大目的。这种手法如同用图像处理软件把图片的面积改大,不过程序在数码相机内进行,把原来影像感应器上的一部份像素使用“插值”处理手段做放大,将影像感应器上的像素用插值算法将画面放大到整个画面。
与光学变焦不同,数码变焦是在感光器件垂直方向向上的变化,而给人以变焦效果的。在感光器件上的面积越小,那么视觉上就会让用户只看见景物的局部。但是由于焦距没有变化,所以,图像质量是相对于正常情况下较差。
通过数码变焦,拍摄的景物放大了,但它的清晰度会有一定程度的下降,所以数码变焦并没有太大的实际意义。因为太大的数码变焦会使图像严重受损,有时候甚至因为放大倍数太高,而分不清所拍摄的画面。
手机拍摄4个小技巧?
拍摄手机的像素一般不高。但只要用点心思,还是可以用手机拍出好照片的。
法则一用“三等分法”构图。在实际摄影构图中将主体景物与中心稍错开,并注意主体与其它物体之间的呼应。这样拍摄的照片主体景物鲜明、突出,不会模糊不清。
法则二侧光最能突出质感。一般情况下,从侧面射入的光线能更好地突出物体的质感,因此要尽量利用侧面光。逆光或者侧逆光时,可以考虑用物品进行遮挡,实在不行就用手在摄像头旁遮一下,缓解逆光的影响。在强光下拍摄也需要注意,千万不要用手机镜头对着强光拍摄。
法则三按键后不宜马上转动手机。手机拍照延迟现象一般比较明显,若使用外置摄像头的手机拍照,这种延迟现象会更明显。如果在按下快门的一瞬间手抖动了,拍出的照片会发虚或者模糊不清。所以,切记不要按下拍摄键后马上转动相机。
连拍功能(continuous shooting)是通过节约数据传输时间来捕捉摄影时机。连拍模式通过将数据装入数码相机内部的高速存储器(高速缓存),而不是向存储卡传输数据,可以在短时间内连续拍摄多张照片。由于数码相机拍摄要经过光电转换,A/D转换及媒体记录等过程,其中无论转换还是记录都需要花费时间,特别是记录花费时间较多。因此,所有数码相机的连拍速度都不很快。
连拍一般以帧为计算单位,好像电影胶卷一样,每一帧代表一个画面,每秒能捕捉的帧数越多,连拍功能越快。目前,数码相机中最快的连拍速度为7帧/秒,而且连拍3秒钟后必须再过几秒才能继续拍摄。当然,连拍速度对于摄影记者和体育摄影受好者是必须注意的指标,而普通摄影场合可以不必考虑。一般情况下,连拍捕捉的照片,分辨率和质量都会有所减少。有些数码相机在连拍功能上可以选择,拍摄分辨率较小的照片,连拍速度可以加快,反之,分辨率大的照片的连拍速度会相对减缓。
通过连续快拍模式,只须轻按按钮,即可连续拍摄,将连续动作生动地记录下来。
光学变焦和数码变焦原理
光学变焦(Optical Zoom)是通过镜头、物体和焦点三方的位置发生变化而产生的。当成像面在水平方向运动的时候,如下图,视觉和焦距就会发生变化,更远的景物变得更清晰,让人感觉像物体递进的感觉。
显而易见,要改变视角必然有两种办法,一种是改变镜头的焦距。用摄影的话来说,这就是光学变焦。通过改变变焦镜头中的各镜片的相对位置来改变镜头的焦距。另一种就是改变成像面的大小,即成像面的对角线长短在目前的数码摄影中,这就叫做数码变焦。实际上数码变焦并没有改变镜头的焦距,只是通过改变成像面对角线的角度来改变视角,从而产生了“相当于”镜头焦距变化的效果。
所以我们看到,一些镜头越长的数码相机,内部的镜片和感光器移动空间更大,所以变焦倍数也更大。我们看到市面上的一些超薄型数码相机,一般没有光学变焦功能,因为其机身内根部不允许感光器件的移动,而像索尼F828、富士S7000这些“长镜头”的数码相机,光学变焦功能达到5、6倍。
数码变焦(Digital Zoom)也称为数字变焦,数码变焦是通过数码相机内的处理器,把图片内的每个象素面积增大,从而达到放大目的。这种手法如同用图像处理软件把图片的面积改大,不过程序在数码相机内进行,把原来影像感应器上的一部份像素使用“插值”处理手段做放大,将影像感应器上的像素用插值算法将画面放大到整个画面。
与光学变焦不同,数码变焦是在感光器件垂直方向向上的变化,而给人以变焦效果的。在感光器件上的面积越小,那么视觉上就会让用户只看见景物的局部。但是由于焦距没有变化,所以,图像质量是相对于正常情况下较差。
通过数码变焦,拍摄的景物放大了,但它的清晰度会有一定程度的下降,所以数码变焦并没有太大的实际意义。因为太大的数码变焦会使图像严重受损,有时候甚至因为放大倍数太高,而分不清所拍摄的画面。
手机拍摄4个小技巧?
拍摄手机的像素一般不高。但只要用点心思,还是可以用手机拍出好照片的。
法则一用“三等分法”构图。在实际摄影构图中将主体景物与中心稍错开,并注意主体与其它物体之间的呼应。这样拍摄的照片主体景物鲜明、突出,不会模糊不清。
法则二侧光最能突出质感。一般情况下,从侧面射入的光线能更好地突出物体的质感,因此要尽量利用侧面光。逆光或者侧逆光时,可以考虑用物品进行遮挡,实在不行就用手在摄像头旁遮一下,缓解逆光的影响。在强光下拍摄也需要注意,千万不要用手机镜头对着强光拍摄。
法则三按键后不宜马上转动手机。手机拍照延迟现象一般比较明显,若使用外置摄像头的手机拍照,这种延迟现象会更明显。如果在按下快门的一瞬间手抖动了,拍出的照片会发虚或者模糊不清。所以,切记不要按下拍摄键后马上转动相机。
法则四尽量不用数码变焦拍摄。如果用数码变焦来拍照,会减弱图像的清晰度,效果还不如不用数码变焦拍摄的好。例如,一张使用数码变焦拍摄、分辨率为640×480的照片,实际分辨率可能只有320×240,在计算机上看时,图像不是变小就是变得模糊。
手机摄像头参数配置时的问题
1 。很多时候其实是鬼影,画面颜色乱得鬼画图书一样(但颜色显示不正常、并带有较大的色块光斑等等现象),不专业的同志往往把这也叫花屏。这个原因主要是数据线上的信号不对,比如D[5]跟GND短路,或者断开。越是高位的信号线出问题,鬼影现象将越严重,低位信号(如D[1]、D[0])则对画面影响不大,所以,在十位输出格式中,往往为了兼容8 位的IO口,把低两位去掉,只要高8位。如何理解高位信号线的重要性?大家知道8位信号可以表示256个不同的级别,比如亮度值Y的高低级别、或者色度值 U/V的强度级别。假如D[7:0]=10000000代表的是128亮度值,那么显示出来就是灰色,但是如果D[7]断开、或者短路,那么CPU得到的值将是00000000,显示出黑色,差别就大咯。同样对于色度信号,也将出现颜色错误。所以出现这种情况,先查查信号通路(一般是Connector连接不良居多、然后是Sensor焊接绑定不良次之),然后再看驱动程序是否有弄错
2 。图像反色,在RGB颜色系统中就是红绿蓝三个颜色的错乱,在YUV系统中就是亮度信号跟色度信号的错乱,当然也有两个色度信号之间错乱的。举例说明,一个YUV422格式的Camera,其输出的有效Pixel一般是Y0+U0)、(Y1+V0)、(Y2+u1)、(Y3+V1)....,如果因为Camera的输出时序错位(比如 Camera输出的是(U0+Y0)、(V0+Y1)....),而CPU还傻不拉几地认为是前面一种标准时序,那么就出现每个象素点的亮度信号跟色度信号反了,对于构建画面清晰最为重要的亮度信号Y被拉去作为U(或叫蓝色偏量Cb),那么就会出现高亮度的地方呈现绿色,低亮度的区域呈现红色,而且画面整体亮度也大大偏低。其他情况大体相似,可以类推之。不过出现画面反色一般都表现为画面大红大绿的情况。对这种情况,一般先看看送给Sensor的参数中有没有设错相关寄存器的值,或者检查CPU这边驱动程序的设置是否跟送出来的数据格式一致。
3 。画面条纹,而且一般都是彩色的横条纹。这种彩色的条纹是固定在某些行,或者不断闪现在不同的行。从单个行数据来看,出错的原因跟上面第2条一样,都是由数据错位引起。这次拿RGB Raw数据格式来说,RGB Raw输出一般是第一行/第二行:RGRG.../GBGB...,如果第一行的数据R没有被采样到,那么CPU采集到的数据实际上就是GRGR.... 0/GBGB....(假设此CPU对一行数据中不足的位用0补齐),但是它又按照前面那个标准的数据排列来进行颜色插补的工作(对颜色插补不明白的等以后有时间再讨论),如果照偏绿色的背景(R的分量很小,G的分量很大),但是由于采样错位,CPU把较大分量G的值当成是第一个象素R的值,本来弱小的R 分量就这样莫名其妙的被大大地提升了,所以显示保存图片的时候这一行将整体的偏红色,了解颜色插补的同志应该还会想到,即使第二行没有错位,也会受到一定的影响,呈现出偏红的迹象。对于这样的问题,不像第2那样是整个画面出现错位,而只是某些行数据出现,这一般是由元器件制造时的差别引起的,Sensor 生产商不能保证每个Sensor的性能都一样,也不能保证每行的数据时序都分毫不差。当然也跟信号受到外部的影响有关,比如行同步信号HREF受到外部影响,上升沿长,将可能引起第一个PCLK丢失。再假如PCLK信号如果受到干扰、或者驱动能力不够,也有可能导致某些象素的丢失,从而一行数据的排列都会错位,出现画面的条纹现象。所以在设计硬件或者调试驱动程序的时候,良好的信号同步策略,以及设置更好的信号容差范围将是系统长期稳定性的基础
4 。画面噪点,画面过多的噪点也往往会被说成是画面花屏,可能从直观理解,噪点这种“花屏”才真叫花,照出来满脸的麻子,而且是花花绿绿,姹紫嫣红啊。噪点我放到最后才讲是因为这个问题嘛,现在已经越来越不是问题了。随着CMOS技术的进步,已经ISP的集成,Sensor中降噪的能力越来越强,除了低照度(几个LUX)下的噪点还很难消除外,其它时候已经可以通过颜色矫正、自动增益调节、自动Gmma、黑白点矫正等ISP功能基本消除掉。如果是用RGB Raw数据格式的兄弟可是要费一番功夫了,调试驱动的时候要充分利用CPU集成的一些ISP功能,消除掉那些红鬼蓝鬼。画面噪点主要跟Sensor的设计制造技术有关,我们往往也只能望而兴叹,但是如果Boss比较大方、应用于高端机型的,还是得买贵的Sensor啊,现在这个市场啊,已经挤得水泄不通了,价格也不会不靠谱,基本上是一分钱一分货了。
手机摄像头参数配置时的问题
1 。很多时候其实是鬼影,画面颜色乱得鬼画图书一样(但颜色显示不正常、并带有较大的色块光斑等等现象),不专业的同志往往把这也叫花屏。这个原因主要是数据线上的信号不对,比如D[5]跟GND短路,或者断开。越是高位的信号线出问题,鬼影现象将越严重,低位信号(如D[1]、D[0])则对画面影响不大,所以,在十位输出格式中,往往为了兼容8 位的IO口,把低两位去掉,只要高8位。如何理解高位信号线的重要性?大家知道8位信号可以表示256个不同的级别,比如亮度值Y的高低级别、或者色度值 U/V的强度级别。假如D[7:0]=10000000代表的是128亮度值,那么显示出来就是灰色,但是如果D[7]断开、或者短路,那么CPU得到的值将是00000000,显示出黑色,差别就大咯。同样对于色度信号,也将出现颜色错误。所以出现这种情况,先查查信号通路(一般是Connector连接不良居多、然后是Sensor焊接绑定不良次之),然后再看驱动程序是否有弄错
2 。图像反色,在RGB颜色系统中就是红绿蓝三个颜色的错乱,在YUV系统中就是亮度信号跟色度信号的错乱,当然也有两个色度信号之间错乱的。举例说明,一个YUV422格式的Camera,其输出的有效Pixel一般是Y0+U0)、(Y1+V0)、(Y2+u1)、(Y3+V1)....,如果因为Camera的输出时序错位(比如 Camera输出的是(U0+Y0)、(V0+Y1)....),而CPU还傻不拉几地认为是前面一种标准时序,那么就出现每个象素点的亮度信号跟色度信号反了,对于构建画面清晰最为重要的亮度信号Y被拉去作为U(或叫蓝色偏量Cb),那么就会出现高亮度的地方呈现绿色,低亮度的区域呈现红色,而且画面整体亮度也大大偏低。其他情况大体相似,可以类推之。不过出现画面反色一般都表现为画面大红大绿的情况。对这种情况,一般先看看送给Sensor的参数中有没有设错相关寄存器的值,或者检查CPU这边驱动程序的设置是否跟送出来的数据格式一致。
3 。画面条纹,而且一般都是彩色的横条纹。这种彩色的条纹是固定在某些行,或者不断闪现在不同的行。从单个行数据来看,出错的原因跟上面第2条一样,都是由数据错位引起。这次拿RGB Raw数据格式来说,RGB Raw输出一般是第一行/第二行:RGRG.../GBGB...,如果第一行的数据R没有被采样到,那么CPU采集到的数据实际上就是GRGR.... 0/GBGB....(假设此CPU对一行数据中不足的位用0补齐),但是它又按照前面那个标准的数据排列来进行颜色插补的工作(对颜色插补不明白的等以后有时间再讨论),如果照偏绿色的背景(R的分量很小,G的分量很大),但是由于采样错位,CPU把较大分量G的值当成是第一个象素R的值,本来弱小的R 分量就这样莫名其妙的被大大地提升了,所以显示保存图片的时候这一行将整体的偏红色,了解颜色插补的同志应该还会想到,即使第二行没有错位,也会受到一定的影响,呈现出偏红的迹象。对于这样的问题,不像第2那样是整个画面出现错位,而只是某些行数据出现,这一般是由元器件制造时的差别引起的,Sensor 生产商不能保证每个Sensor的性能都一样,也不能保证每行的数据时序都分毫不差。当然也跟信号受到外部的影响有关,比如行同步信号HREF受到外部影响,上升沿长,将可能引起第一个PCLK丢失。再假如PCLK信号如果受到干扰、或者驱动能力不够,也有可能导致某些象素的丢失,从而一行数据的排列都会错位,出现画面的条纹现象。所以在设计硬件或者调试驱动程序的时候,良好的信号同步策略,以及设置更好的信号容差范围将是系统长期稳定性的基础
4 。画面噪点,画面过多的噪点也往往会被说成是画面花屏,可能从直观理解,噪点这种“花屏”才真叫花,照出来满脸的麻子,而且是花花绿绿,姹紫嫣红啊。噪点我放到最后才讲是因为这个问题嘛,现在已经越来越不是问题了。随着CMOS技术的进步,已经ISP的集成,Sensor中降噪的能力越来越强,除了低照度(几个LUX)下的噪点还很难消除外,其它时候已经可以通过颜色矫正、自动增益调节、自动Gmma、黑白点矫正等ISP功能基本消除掉。如果是用RGB Raw数据格式的兄弟可是要费一番功夫了,调试驱动的时候要充分利用CPU集成的一些ISP功能,消除掉那些红鬼蓝鬼。画面噪点主要跟Sensor的设计制造技术有关,我们往往也只能望而兴叹,但是如果Boss比较大方、应用于高端机型的,还是得买贵的Sensor啊,现在这个市场啊,已经挤得水泄不通了,价格也不会不靠谱,基本上是一分钱一分货了。
再转载一个网友的观点:
本人从事cellphone以及PC camera 的应用工作,我来谈谈我的一些看法,不足的地方请补充!
主要是CMOS IMAGE SENSOR的应用,先说说整个模块!
构成 :
整个系统由三部分构成:图像采集模块、图像处理模块和图像传输模块。
1 图像采集模块:
图像的采集过程是把光转化为电信号;首先,光通过镜头进入sensor,有sensor里的photodiode转化为电压电流,然后经过AMP放大,再有ADC转化为数字信号;
2 图像处理模块 :
该过程主要对sensor出来的数字信号进行处理,称ISP, image signal process
主要包括:lens shading ; Gamma correction;color interpolation;contrast;saturation;AE;AWB;color correction;bad pixel correction等下面主要谈谈AE(自动曝光)与AWB(自动白平衡)
运动目标检测与跟踪、目标的识别与提取等基于图像内容的处理,对图像质量要求较高。影响成像质量的两个重要因素为曝光和白平衡:人眼对外部环境的明暗变化非常敏感,在强光环境下,瞳孔缩小,使得景物不那么刺眼;而光线较弱时,瞳孔扩大,使景物尽可能地变清楚。这在成像中,称为曝光。当外界光线较弱时, CMOS成像芯片工作电流较小,所成图像偏暗,这时要适当增加曝光时间进行背光补偿;光线充足或较强时,要适当减少曝光时间,防止曝光过度,图像发白。改善成像质量,仅靠调节曝光时间是不够的。因为物体颜色会随照射光线的颜色发生改变,在不同的光线场合图像有不同的色温。这就是白平衡问题。传统光学相机或摄像机通过给镜头加滤镜消除图像的偏色现象。对于CMOS成像芯片,可以通过调整RGB三基色的电子增益解决白平衡问题。
本系统的自动曝光控制和白平衡处理实现方法如下 :
采集一帧RGB原始图像,先计算出整幅图像亮度的均值m(Y);然后对图像做直方图均衡化,再计算出此时图像的亮度均值并作为一个阈值Yt。将m (Y)与Yt进行比较,如果m(Y) < Yt,则调大sensor的INT(Integration Time)寄存器的值以增加曝光时间;反之,减小曝光时间。白平衡的调节与此相似,根据原始图像与均衡化后的Cr和Cb的均值,通过sensor的RCG (Red Color Gain)、BCG(Blue Color Gain)调节红色、蓝色通道的增益。YCrCb和RGB的转换关系式为 :
Y=0.59G+0.31R+0.11B
Cr=0.713×(R-Y)
Cb=0.564×(B-Y)
其中,Y是亮度分量,Cr和Cb则是色差分量。
sensor的曝光时间范围为0~(224-1)个像素时钟周期,即0~[email protected];增益范围一般为30~63。试验结果表明,经过5~10次的迭代就能取得较为理想的效果。
本人从事cellphone以及PC camera 的应用工作,我来谈谈我的一些看法,不足的地方请补充!
主要是CMOS IMAGE SENSOR的应用,先说说整个模块!
构成 :
整个系统由三部分构成:图像采集模块、图像处理模块和图像传输模块。
1 图像采集模块:
图像的采集过程是把光转化为电信号;首先,光通过镜头进入sensor,有sensor里的photodiode转化为电压电流,然后经过AMP放大,再有ADC转化为数字信号;
2 图像处理模块 :
该过程主要对sensor出来的数字信号进行处理,称ISP, image signal process
主要包括:lens shading ; Gamma correction;color interpolation;contrast;saturation;AE;AWB;color correction;bad pixel correction等下面主要谈谈AE(自动曝光)与AWB(自动白平衡)
运动目标检测与跟踪、目标的识别与提取等基于图像内容的处理,对图像质量要求较高。影响成像质量的两个重要因素为曝光和白平衡:人眼对外部环境的明暗变化非常敏感,在强光环境下,瞳孔缩小,使得景物不那么刺眼;而光线较弱时,瞳孔扩大,使景物尽可能地变清楚。这在成像中,称为曝光。当外界光线较弱时, CMOS成像芯片工作电流较小,所成图像偏暗,这时要适当增加曝光时间进行背光补偿;光线充足或较强时,要适当减少曝光时间,防止曝光过度,图像发白。改善成像质量,仅靠调节曝光时间是不够的。因为物体颜色会随照射光线的颜色发生改变,在不同的光线场合图像有不同的色温。这就是白平衡问题。传统光学相机或摄像机通过给镜头加滤镜消除图像的偏色现象。对于CMOS成像芯片,可以通过调整RGB三基色的电子增益解决白平衡问题。
本系统的自动曝光控制和白平衡处理实现方法如下 :
采集一帧RGB原始图像,先计算出整幅图像亮度的均值m(Y);然后对图像做直方图均衡化,再计算出此时图像的亮度均值并作为一个阈值Yt。将m (Y)与Yt进行比较,如果m(Y) < Yt,则调大sensor的INT(Integration Time)寄存器的值以增加曝光时间;反之,减小曝光时间。白平衡的调节与此相似,根据原始图像与均衡化后的Cr和Cb的均值,通过sensor的RCG (Red Color Gain)、BCG(Blue Color Gain)调节红色、蓝色通道的增益。YCrCb和RGB的转换关系式为 :
Y=0.59G+0.31R+0.11B
Cr=0.713×(R-Y)
Cb=0.564×(B-Y)
其中,Y是亮度分量,Cr和Cb则是色差分量。
sensor的曝光时间范围为0~(224-1)个像素时钟周期,即0~[email protected];增益范围一般为30~63。试验结果表明,经过5~10次的迭代就能取得较为理想的效果。