你看苹果的支持页面会发现,iPhone 8不支持的人像模式,新款iPhone SE是支持的,即使两者都只有一个后置镜头,规格也是一模一样的。
一般情况下,手机拍出“人像模式”之类的模糊照片都是两拍。——就像人的眼睛。不同位置的两次拍摄,会得到不同角度的两张图片,然后结合视角的不同来估算景深,从而模糊背景,保持主体清晰。
今天上榜的Plus系列,或者近几年的X、XS、11,基本都是依靠多摄像头系统完成人像虚化拍摄。
那么iPhone的前置单摄是怎么解决的呢?核心在于Face ID系统中的红外点阵投影仪,它也可以获得足够精确的深度数据,相当于一个“辅助镜头”。
至于iPhone SE,由于其传感器过于老旧,无法依靠传感器获取视差图,只能依靠A13仿生芯片提供的机器学习算法模拟生成深度数据图。
iPhone SE实现的人像虚化摄影,是单摄像头手机通过软件优化所能达到的极限。严格来说,这其实要归功于A13芯片。如果它没有带来最新的机器学习算法,依靠一个过时的摄像头,
SE的拍摄体验显然要打折扣。
这也在一定程度上证明了为智能手机开发多摄像头系统还是有意义的。我们可以利用超广角来拓宽视野,潜望镜长焦可以得到无损变焦的照片,更不用说借助ToF、激光雷达等“特殊镜头”来探测ar增强现实了。
这些都不是简单通过OTA升级或者算法就能实现的功能。