为什么 iPhone SE 依靠单摄像头就可以拍摄人像照片?(iphonese怎么设置镜面拍照)
正常情况下,手机拍「人像模式」这样的虚化照片都得靠双摄来完成 —— 好比是人类的双眼,两个位置不同的镜头会获取两张不同角度的画面,然后结合视角差估算出景深,从而实现背景虚化,保持主体清晰。
正常情况下,手机拍「人像模式」这样的虚化照片都得靠双摄来完成 —— 好比是人类的双眼,两个位置不同的镜头会获取两张不同角度的画面,然后结合视角差估算出景深,从而实现背景虚化,保持主体清晰。
那么 iPhone 的前置单摄可以实现人像拍摄的核心在于 Face ID 系统中的红外点阵投影器,它也可以获取足够精准的深度数据,相当于是一颗「辅助镜头」。前不久,第三方相机应用 Halide 的开发者Ben Sandofsky解释为什么新 iPhone SE 采用了和 iPhone 8 一样的单镜头规格,但却可以做到后者所无法实现的人像拍照模式。
拆解的情况证明, iPhone SE 和 iPhone XR 的摄像头并不一致,导致了两者在技术上存在差异。
新 iPhone SE,由于它的传感器过于老旧,Halide 称它无法依靠传感器来获取视差图,基本只能靠 A13 Bionic 芯片所提供的机器学习算法,去模拟和生成深度数据图。在新 iPhone SE 上,配合 A13 芯片所提供的全新算法,我们则得到了一张完全不同于 XR 的深度图。它不仅正确识别出了小狗的耳朵和整体轮廓,还针对不同远近的背景做了分层处理。
这种深度图并不是 100% 准确的,Halide 表示,新 iPhone SE 在拍摄非人脸题材的虚化照片时,抠图和虚化的精准度明显没有拍人像时来得精准。
尤其是在一些主体和背景图十分模糊的情况下,此时多摄像头的优势会更明显些。在新 iPhone SE 上,尽管同样有分层处理的结果,但被摄主体和背景已经完全融在了一起,后期虚化时自然会比 iPhone 11 Pro 差不少。
这也是为什么,现在新 iPhone SE 使用 iOS 自带相机应用时,只有在检测到人脸的情况下,才能启用「人像模式」拍虚化照片,其余情况则会出现错误提示,这点和之前的 iPhone XR 一样。