一般情况下,手机拍出“人像模式”之类的模糊照片都是两拍。——就像人的眼睛。不同位置的两次拍摄,会得到不同角度的两张图片,然后结合视角的不同来估算景深,从而模糊背景,保持主体清晰。
那么iPhone的前置摄像头就可以实现人像拍摄。核心是Face ID系统中的红外点阵投影仪,同样可以获得足够精确的深度数据,相当于一个“辅助镜头”。不久前,
第三方相机应用Halide的开发者本桑多夫斯基(Ben Sandofsky)解释了为什么新款iPhone SE采用了与iPhone 8相同的单镜头规格,却能实现后者无法实现的人像摄影模式。
拆解证明iPhone SE和iPhone XR的摄像头并不一致,导致了两者的技术差异。
新款iPhone SE,由于其传感器过于老旧,Halide表示无法依靠传感器获取视差图,基本只能依靠A13仿生芯片提供的机器学习算法模拟生成深度数据图。
在新的iPhone SE上,通过A13芯片提供的新算法,我们得到了与XR完全不同的深度图。它不仅能正确识别耳朵和小狗的整体轮廓,还能以不同的距离对背景进行分层。
这个深度图不是100%准确。新款iPhone SE在拍摄非人脸的模糊照片时,抠图和模糊的精度明显不如拍摄人像时准确。
特别是在一些主体和背景图像非常模糊的情况下,多摄像头的优势会更加明显。在新的iPhone SE上,虽然也有分层处理的结果,但是主体和背景已经完全融为一体。
后期模糊的时候自然会比iPhone 11 Pro差很多。
这就是为什么新款iPhone SE在使用iOS自带的相机应用时,只能在检测到人脸时启用“人像模式”拍摄模糊照片,其他情况下会有错误提示,这一点和之前的iPhone XR是一样的。