CMOS工作:
- 我们常见的1080P、4K的视频,它们每帧画面的分辨率分别约为200万像素、800万像素。也就是说录制1080p视频和4K视频时,CMOS参与成像的区域只有200万和800万像素。剩余的像素根本用不到。
如:一台2400万像素相机录制1080P和4K视频时所占COMS工作面积示意图:
众所周知,一台相机动辄几千万像素,用来拍照片肯定是非常好,可用来录制视频,这么多像素就绰绰有余了。 那多余的像素怎样利用起来提供画质呢?
CMOS录制视频的采样类型:——点对点采样
- 既然录制1080P、4K的视频,只需200万像素和800万像素就够了。其他像素用不上。要不就在CMOS中央区域横向连续采集1920个像素,纵向连续采集1080个像素。这样就能录制1080P视频了。这种连续采集像素的方式,就叫做点对点采样。
从上示意图可以看出一些点采的问题:
- 第一,由于没有利用CMOS整个传感器的面积,导致信噪比降低。这不难理解,对比整个CMOS面积采样,相同时间内,中央区域的CMOS面积采集图像信息数量少了许多,受光面积变窄了。
- 第二,有裁切。由于只用了CMOS中央的一部分区域,相对于整块CMOS的面积录制,画面的视角变了。原本要录制2400万像素,现只录制中间的200万像素的视频,周边的像素未采集,呈现出来的效果就是画面裁切了。
- 做个实现:你把相机(普通相机)调到4K模式拍视频时,会发现画面变大了;没有相机的,手机也能发现,你把拍照模式切到视频录制模式,画面也会变大了。
那怎么办呢?
- 不如用一块只有200万像素的CMOS,这样刚好够录制1080P的视频。采集多少像素点,就输出多少像素点。录制出的画面没有什么裁切。其实早年前摄像机就是这样的(那时我还小)。
跳采:
- 既然2400万像素CMOS录制1080P视频采用点采的方式有裁切。那能不能让CMOS上整个区域都“工作”,这样就不裁切了吧。好家伙,这都想得出来。可CMOS上面像素这么多,要是都采样,那能拍个8K、10K的视频出来。可是只需200万。
- 这样好了,每隔几个像素采集一个。让CMOS整个区域看起来像是都在工作。实际采集到的像素还是200W,只不过按照一定间距分开采集的。再合并起来变成一个视频。这种按一定间隔采集像素的方式,就叫做跳采。
- 画面裁切的问题是解决了(其实大部分相机录制的1080P视频都是跳采录制)。这个技术这么牛逼,它有缺点吗?这不废话嘛,整块CMOS有2400万像素,你TM跳采了200万,丢失了那么多像素,你还好意思说你有没有缺点。
- 每隔几个像素采一个,很容易出现“断层”、锯齿、摩尔纹现象,毕竟是丢失了大部分像素。
像素合并:
- 遇到问题就解决问题,不想有裁切、又不想损失那么多信息。那干脆把CMOS上2400万像素当成200万像素来读取,把CMOS上面每12像素合并当作一个像素,这样既全局利用了CMOS,而且又不丢失像素(理想状态下),简直两全其美。这种将多个像素合并成一个像素的采集方式,就叫做像素合并采集。
实际上,并不是采集了所有像素,中端机的CMOS无法支撑全像素读取的。主要原因是像素太多,相机芯片计算不过来,只能读取一部分。也是说2400万像素CMOS,真正采集的像素要低于2400万的。所以还是有裁切系数的,只不过裁切系数小。
- 你以为这就是最理想的录制效果吗?将多个像素点合并成一个大的像素点,精度肯定要低于小像素点。给你2400万像素CMOS,是想让你提高画质的。消消气,每种技术都会有它的缺点和优点。既然目的为了提升画质,对应的也要去做一些妥协。
超级采样技术由来:
- 在生活中也不难发现:当我们把一张图片不断放大时,会发现图像慢慢地变模糊;当我们不断缩小时,图像就会越来越清晰了。也就说把画面缩小可以让图像变得更清晰。
超级采样:
- 既然缩小就能提升画质,那能不能采集CMOS上面全部的2400万像素,再缩小至200万像素(1080P),这样画质不就提升了吗?
- 好家伙,太敢想了。从2400万压缩至200万,压缩倍率太大了,相机芯片运算不过来,CMOS既要采集像素又要压缩像素,还不配置更牛X的芯片,是没法实现。
- 画面压缩倍率大不是好事,画质会显得很“肉”。(录制视频不是像素越高越好的)
- 2400万压缩至200万,芯片算不过来,但把1000万像素压缩到800万像素,还是不难的。这种通过采集高分辨率像素信息再压缩至低分辨率像素信息的方式,就叫做超级采样。
我们可以看到索尼的视频机,A7S系列,只有1200万像素,可以全像素读取采集,超采录制4K视频。超采可以提升信噪比,使得画质更好。
总结:
- CMOS上采集视频方式主要有四种:点采、跳采、像素合并采样、超采;超采录制的视频画质是最好。
- 对相机的理解:如果用来拍照,那像素越高越好。如果用来录制像素适中最好。