当前位置:首页 > 应用方案 > 物联网
车用图像传感器参数小议——动态范围

可变化的信号S有多种,对一帧图像而言,S的最小值为1,最大值受限于数据带宽,即数据能够存储的最大值。一张8位的灰度图,最大值255,此时理论上的动态范围就是48dB,10位图像动态范围可到60dB,20位图像动态范围120dB。

实际上,动态范围是一个通用的概念,不同的信号或者变量S都可以定义自己的动态范围,图像传感器有动态范围,显示器,投影机,打印机等等都有自己的动态范围。我们甚至可以定义一个人的动态范围,如果这个人条件艰苦时能吃苦,条件优渥时会享受,既能将就也会讲究,这就是个高动态范围的狠人。


图像的动态范围和场景的动态范围,大多数情况是不一致的。

场景的信号S不是图像的灰度值,它是场景发射光线的亮度。可以理解为S最大值是场景中最亮部分的亮度,S的最小值是场景中最黑部分的亮度。它与图像动态范围相关但不相等。同时图像的后处理通常会把线性数据压缩为非线性输出,这也会放大图像数值和场景动态范围的差异。


如果把场景的亮度作为横坐标,图像传感器输出的数据作为纵坐标,图像传感器把一定亮度范围的场景采集并映射为自己的输出。

图像传感器实际动态范围通常比场景的动态范围低,传感器的能力只能采集红框对应横坐标内场景的亮度范围。红框的位置需要动态调整移动,以适应场景亮度的变化,这是成像算法中自动曝光(auto exposure)模块的任务。

第一个是动态改变像素的灵敏度扩充动态范围。图像传感器对场景亮度的映射变成非线性,随着环境亮度增加,像素灵敏度逐渐下降,灵敏度从亮度的线性函数变成分段函数。电荷积累分成三段,亮度低时灵敏度高,对应黑色电荷,然后亮度中等灵敏度也中等,对应蓝色电荷,最后亮度最高灵敏度最低。从坐标图中可以看到,此时像素的势阱容量即纵坐标不增加,但映射的场景亮度范围即横坐标可以明显加大,实现了增大动态范围的目标。


安森美(onsemi)的车用图像传感器产品线早期推出过30万像素的可变灵敏度sensor,就是基于此类技术,这个技术的最大挑战在于它改变了像素的灵敏度特性,让线性特性的灵敏度变成非线性,而这个折线的形状对电压、温度和曝光时长敏感,一致性差,动态范围扩展能力有限,只能勉强用于大尺寸像素黑白图像的传感器。目前这类技术已经逐渐被市场淘汰。


第二个高动态范围技术是时分多次曝光。这个是目前主流车用图像传感器所采用的技术。做法就是图像传感器改变曝光时间连续多次曝光得到多帧图像,然后从中选择合适像素合并成一帧图像。传感器改变曝光时间,相当于自带自动曝光功能,对场景不同亮度分别采样,得到多个红框,然后把动态范围拼接起来。这个技术的优点在于:像素势阱容量不用额外做大,只需把数据带宽做大;每个曝光的时长控制可以很精确,最终拟合的图像亮度线性特性好;动态范围扩展容易,仅用时分技术就能做到140dB的动态范围。


时分多次曝光技术有一个难以克服的问题,由于sensor的连续曝光时间上是依次滞后的,当场景中有快速移动物体或光照剧烈变化例如LED频闪情况下,多帧图像拟合后会出现运动物体伪影和色彩噪声。ADAS算法需要针对性地训练这类噪声。


佑德半导体 版权所有