分享

怎么样用手机拍出最美的人像?

 hercules028 2023-04-21 发布于江苏

虚化是图像处理领域的一座大山,理解手机处理虚化图像的最好的方式,就是了解我们人类是如何感知距离的。人类对于世界的立体感知和动物有着些许区别。动物更多是因为良好的移动能力探索出了立体世界的样貌和边界,而人类看着眼前的世界或者是二维的图像就能感知物体的远近。

华为手机人像模式拍摄。如今的虚化效果在一些场景中已经非常自然

我们的感知一是来自双眼的信息。我们的左右两只眼睛具有视差,分别用左右眼看一只手,看到的是不同的图像。我们在追踪观察物体的时候,两只眼睛会朝不同的方向运动,这被称作趋同,即双眼同时朝相反方向运动以获得或维持单双眼视觉,是双眼判断空间的重要线索,也是我们会晕VR(virtual reality,虚拟现实)的原因之一。

二是来自物体间的相对大小关系、遮挡关系,细节丰富程度的递进变化,线条带来的透视暗示(比如向消失点延伸的跑道),我们观察到的运动速度以及物体的清晰程度等信息。如同其他算法一样,我们在视觉上观察物体远近的方式也被应用在虚化算法里。

手机计算摄影的人像模式、大光圈模式等,都在模拟相机上大光圈所产生的光学虚化效果,通过清晰的主体和虚化的背景实现主体和背景的分离。其本质可分为两个部分:首先,估计出场景的深度信息,并且分离主体和背景;其次,对焦外区域进行特殊的模糊处理,生成虚化部分,并根据计算在应该有光斑产生的地方生成光斑。虚化效果发展之初,精度十分有限,在主体和背景判断上出现了许多错误。随着技术的成熟,如今的虚化效果已经有大幅进步,功能可用性大幅增强,尤其适用于拍摄人像。

华为手机人像模式拍摄。人像模式更适合用来拍摄半身像

在使用的时候,虚化效果往往适合拍摄距离不是很远的人和物体。因为手机计算深度图距离的限制及手机的焦段的考虑,这里推荐大家更多使用虚化效果来拍摄半身像或肖像特写,拍摄物品的话最好拍摄3m以内的物品,以获得最佳效果。

计算深度图的进步在计算摄影领域主要来自以下两个方面:通过多个来源的信息增加和交叉验证深度图的准确性;通过规律性的总结和AI的帮助更好地区分主体和背景。深度图的来源在计算摄影领域大概有以下几个方面:多镜头作为双目系统计算深度,好比我们的左右眼,看远近不同的物体时有视差。单颗传感器也可以作为双目系统,很多传感器用以对焦的双核对焦技术可以简单理解为把传感器像素分成了左半边像素和右半边像素。虽然左右视差很小,但是对于估计近处物体的深度十分有用,配合大多时候上下排列的多镜头系统,可以同时产生水平和垂直视差。

TOF、L iDAR一类的用于测距的组件,通过主动发射信号并且接收信号反馈来计算物距,也可以辅助深度图计算。但是他们起到的作用没有大家想象的那么大,因为其精度不足以承担计算深度图的主要任务,目前只能对于一些易于混淆的物体和情况,比如眼睛和特殊图案的背景等起到校验作用。

iPhone人像模式拍摄。如今深度图计算对于镂空和边缘的识别已经越来越准确

有些手机的前置和后置镜头只有“单目”,也不能自动对焦,那它是如何实现虚化的呢?这就是AI在虚化当中的作用,其学习参考的方式和人眼通过单目获取深度信息的方式类似。使用手机自拍时的拍照规律十分可循,拍摄距离大都差不多,拍摄的内容也大多是从头到肩膀,此时用AI的方式分割出人物和背景,精度也够用。在后置拍照上,AI也能帮上忙。虽然人物的姿态和情况更加复杂,但也有规律可循,AI可以辅助把人物等主体更精细地区分出来。另外,将头发丝分割出来,单单以深度图的精度很难做到,这时需要用到图像抠图技术(image matting),将图像的主体和背景分离。其中的关键就在于处理好背景和主体的交界处(比如头发丝),这部分大多也得运用AI去推导头发丝的边缘在多大程度上属于主体或者背景(抠图算法中基于学习的alpha matting算法)。现在,基于AI的抠图已经十分强大,我们熟知的AI换脸、Photoshop 2020的一键抠图,都基于类似的技术。

图源谷歌 AI Blog。从Dual PD系统、双镜头系统获得的深度图,以及将二者融合之后的结果

因为手机都是通过计算生成虚化效果,所以在拍摄完之后,我们可以改变对焦点、虚化的程度等,先拍再调。而且因为虚化运算量大,所以预览画面的效果和成片的差距很大。在决定用虚化拍摄的时候,我们不用太在意预览画面的效果,而要善于使用相册当中的虚化编辑功能。

iPhone的电影模式产生的虚化还可以在相册当中生成关键帧记录焦点的变化,这意味着我们也可以先拍再虚化视频。另外,iPhone的深度图被Photoshop等软件支持,我们可以在修图的时候调用深度图信息,在不人工抠图的情况下对照片的主体和背景进行单独的处理。

随着手机传感器尺寸越来越大,不需要开启虚化,在主体离手机较近的时候,拍摄的画面也能有一定程度的虚化效果了。拍摄非常近的物体或者微距拍摄时,不要使用虚化模式。

iPhone人像模式拍摄。在预览画面时,深度图计算会出现错误,但是不用担心

计算完深度以后,需要对主体以外的部分进行虚化处理,这是一个主观性更强的过程。你可能会注意到有些厂商的虚化模式光斑是圆形的,而有一段时期,iPhone的虚化模式光斑在画面四周呈椭圆状,每个光斑还有亮边,就好像光学镜头的像差和口径蚀现象造成的一样。不同厂商利用不同的数学方法对焦外区域进行滤波产生虚化和光斑,而不单单是简单的模糊处理。这些不同的处理办法就像五花八门的光学镜头一样,产生了风格不同的虚化效果。这就是虚化选项里面旋焦、蔡司镜头效果、星星或者心形光斑的由来。

计算摄影的虚化存在很多的可能性,因为在虚化程度上不受光学系统限制,所以在传统镜头上大得夸张的F0.95光圈在移动端可以很轻松就模拟出来。焦外的成像也可以有各种风格。但这不代表虚化的效果自然,目前手机的虚化效果相比于相机的虚化主要有以下两个方面的不足。

第一,深度图使用的是深度估计加上抠图的方式达到虚化效果,相比于光学虚化换了一个概念。手机虚化发展的逻辑是:相机大光圈可以方便地分离主体和背景—手机也要做到主体和背景分离—深度图计算精确度有限—结合主体识别和影像去除背景等方法来抠图—一样能有分离主体和背景的效果。手机拍照认为把人物的部分识别出来之后,人物的部分就要绝对清晰。但是相机的虚化只遵循光学规则。想象一下,我们用大光圈拍摄一个半身人像,这个人侧身站立,焦点在眼睛上,理论上这个人的前后肩膀也是会因光学虚化而模糊的。再比如我们拍摄近距离的面部特写,只有眼睛的部分是清晰的而面部其他部分是模糊的。深度图信息可以把人头和头发精细地选择出来,但是面对五官需要虚化的部分还是束手无策,拍出来的面部都是清晰的。这些都限制了手机虚化效果的使用范围。还有就是远距离和长焦虚化的问题,因为双目系统的硬件限制,LiDAR、TOF等组件也对近距离的物体更加有效,目前3m以外的深度图信息还是过于粗略了。如果你问我是手机的虚化方法好还是相机的虚化方法好,我会认为相机的虚化方法更好。因为我们在手机拍照和计算摄影的方方面面都尽量遵循人类对场景的视觉感知,眼睛对于虚化的处理和相机的虚化方法是最接近的。当前手机的虚化方法是一种不得已而为之的临时妥协方法,希望厂商在埋头继续做准深度图的同时能够跳出来看一看为什么手机的虚化模式使用率一直没有显著的提升。

第二,手机生成的虚化效果有时候太强烈了,特别是拍全身像的时候,人们在视觉上还不习惯这种效果。手机拍全身像的虚化效果有时像是一个24mm、F0.7的光学镜头拍摄的。在传统相机中,中画幅、大画幅的胶片机可以营造这种把现实世界变成微缩景观的方法,在小画幅相机上也有Brenzier方法,利用全景拼接产生大画幅虚化和景深效果。但是,总的来说我们还是不太习惯这样的视觉处理,把主体全部拿出来的全身像和非常模糊的背景会给我们比较强的“修图暗示”。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多