记得小时候看过一部纪录片,讲的是电影背后的分工。摄影师往往会配一个“follow focus player”,这就好比每个高尔夫球手都会有一个球童,每个车手都会有一个导航仪,这在电影行业几乎是标配。
跟随对焦主要只是保证镜头的焦点(焦平面)符合摄影导演的需要,也就是被摄体清晰。
这听起来是一个相当简单的工作,但不是每个人都能做到。对焦点的移动速度和切换精度要求很高。没有多年的积累形成肌肉记忆,很难做到尽善尽美,也很难在不同的侧重点之间准确切换。
即使是现在,相机的自动对焦技术已经有了很大的进步,但是胶片行业依然不变,依然是全手动,摄影师依然有这样一个“跟随者”。
焦点的移动会突出人物或环境,人眼的本能是清晰跟踪的对象。焦点的变化会引导观众的注意力随着焦点转移,从而实现叙事或气氛的对比,这已经成为电影的一种语言。导游应该对此有发言权。
普通人想拍一部这样的电影,如果不是后期,全画幅相机和大光圈镜头就够了,但在经济性和普适性上可以给个负分。
而今年iPhone 13全系列上的“电影特效模式”或许是一个新的选择。
电影效果模式是视频肖像模式。
在所有关于iPhone 13的TVC中,印象最深的还是《Whodunnit》和《谁偷了我的iPhone》。电影特效模式的加入大大增强了整部电影的故事感,当然后者的演员也是一大亮点。
▲强烈推荐看完整剪辑。
其实早在苹果9月15日推出iPhone 13之前,就有相应的传闻称苹果将推出“视频人像”功能。当时我觉得不会“有用”。
但是,当我们看到Whodunnit的广告演示片,拿到iPhone 13系列后,实际上又“重现”了一段时间,才逐渐意识到“电影效果模式”的意义堪比iPhone 7 Plus上的“人像模式”。
他们不是基于经典的光学技术,而是另辟蹊径。以前的人像模式和现在的电影特效模式都是基于多个镜头的视差,而不是激光雷达,这也解释了为什么iPhone 13是所有系统都支持的,而不仅仅是Pro系列。
很明显,目的是像当年的“人像模式”一样普及。
▲你脸大,你赢了。
基于此,iPhone 13的“电影效果模式”在拍摄效果上是类似的,而识别主体模拟景深会以人脸为主,多张人脸为优先。
它不能识别物体和动物,需要人为干预才能切换。在拥挤的场景下,iPhone 13可以同时识别多张脸,但会频繁切换焦点。这时候你也需要介入选择你要关注的人,或者只是长按锁定。
另外,“电影特效模式”是苹果首创的,自然有很多局限性。一是抠图不够精细,人物边缘有时会“磨损”,最高视频只能录到1080p 30p。iPhone 13 Pro Max 1TB版本也是如此。
但在上述限制下,iPhone 13的“电影效果模式”仍然可以兼顾杜比视界的HDR编码,这也算是苹果权衡的一个选项。
“电影特效模式”其实是出于好奇而诞生的。
以前很多新功能都需要洞察用户需求和反馈,但站在金字塔顶端的苹果,是按照自己的理解和节奏做产品的。
▲苹果人机界面设计师约翰尼·曼扎里。图片来自:Getty I***ges
在接受科技媒体TechCrunch主编马修·潘扎里诺(Matthew Panzarino)采访时,苹果人机界面的设计者约翰尼·曼扎里(Johnnie Manzari)讲述了电影特效模式诞生的全部故事。
“胶片效果模式”并不是基于功能本身,而仅仅是因为设计部门对胶片的制作过程感到好奇,并以此为出发点去研究和学习胶片的摄影技术,从而实现接近真实的焦点转换和一些光学特性。
同时,约翰表示“电影效果模式”的开发有点类似于iPhone X上出现的工作室灯光效果人像照片功能。
从经典肖像艺术家安迪·沃霍尔、巴洛克画家伦勃朗、中国工笔画的肖像作品中学习分析经验,并应用到产品算法中。
▲安迪·沃霍尔的艺术作品(我从左下)。
“电影效果模式”是一个类似的过程。苹果团队先和世界级摄影师讨论,看了大量电影。
在这个过程中,我们发现了一些电影制作过程中不可改变的趋势。焦点的变化是电影行业的通用语言,我们需要确切地知道它们是如何以及何时被使用的。
▲“电影效果模式”下的焦点转移。
因此,约翰与摄影导演和第一摄影助理以及团队成员密切合作,以了解这一切背后的机制。浅景深的应用可以引导观众的注意力,有助于故事的描述。
但是“变焦”是给专业人士用的,普通人很难掌握它的准确性。可以说是手微之差,感知千里。
在了解到follow focus工作人员需要多年的实践才能掌握根据电影机和主体的位置保持焦点不变的实时情况后,John、设计团队和苹果都认为这种将会市场化的“电影效果模式”将会是一个极具竞争力的功能。
▲简单的跟随对焦设备
对于这一点,通过学习苹果,把“电影效果模式”分为两部分,一是“找对焦点”,二是如何平滑转移。
最后,搜索的重点是“目光检测”,其实更接近人脸检测,让观众把注意力集中在主角的动作上,从而引导观众快速理解故事。
平滑换档是John对follow focus操作的对焦控制轮进行长期观察后增加的一个功能。熟练的跟随对焦可以控制滚轮使焦点自然稳定的偏移,还可以根据镜头的焦距和与物体的距离进行实时变化。
当然,“电影特效模式”刚刚发布。就像“人像模式”一样,还有很多需要优化的地方。
这就好像你看到郎朗弹钢琴是那样的轻松写意,但你知道用算法是不可能达到(只能接近)他的***级别的。
“电影特效模式”A15落地背后的英雄
既然是被算法“猜”出来的,理论上“电影效果模式”可以通过OTA下载到其他iPhone(比如iPhone 12)上,但可能会牺牲实时预览。但以苹果的思维,很难通过牺牲一些体验来分散新的功能。
▲升级的A15个要点。注意CPU和GPU相对于竞争对手的升级。
所以“电影特效模式”将是iPhone 13全系列的临时专属功能,是A系列芯片计算能力的一个门槛,是新一代iPhone“钉子户”。
iPhone营销副总裁Kaiann Drance在接受采访时表示,视频拥有自己的模拟景深比人像照片更具“挑战性”。
iPhone营销副总裁Kaiann Drance。
视频需要随着拍摄对象的移动而移动,实时图像稳定(数字加光学)以及对不同场景、人、动物和物体的准确识别。因此,对于神经引擎和机器学习来说,需要更高质量的深度数据,并实时渲染。
哦,还有实时对焦,以及对杜比视觉HDR编码的支持。这一切都来自于A15,可以说年纪轻轻就承担了整个家庭的责任。
与A15 CPU相比,在实测中,GPU的性能有明显提升。它可能采用了全新的架构,多堆了一个内核。此外,A15的神经网络引擎的计算能力提高到15.8TOPS。
这些硬件上的改进可能与这款iPhone 13的视频功能改进有关。“电影效果模式”有一些机器学习的问题,和静态照片不一样。相信在A15开发的时候,约翰的人机交互设计团队已经和芯片开发有过深入的交流。
在TechCrunch的测试视频中,他们还发现iPhone 13系列的“电影效果模式”在识别人物的过程中使用了冗余传感器来预测主体。
马修女儿的后脑勺一出现在画面上,他手里的iPhone 13就立刻切换了焦点,就像在一部舞台剧里,有了一个总揽全局的导演。主角出场前,提前准备好灯光,带领观众期待她的出现。
针对“电影模式”的这个细节,苹果的人机交互设计师约翰说:
我们在观察电影制作时发现,follow focus并不是等主角出现才移动焦点,而是有一个预测的过程。我们还使用冗余传感器,通过机器学习来预测人在屏幕外的动作。当他们出现在屏幕上时,焦点已经在他们身上了。
乔布斯曾喜欢说苹果处于技术和艺术的交汇点。
在iPhone 13系列发布之前,“人像模式”更像是一个技术名词,感觉很冷。而“电影特效模式”,TVC的呈现,再到亲测,就不再冰冷,而是有了一定的温度。在透彻理解了“电影特效模式”背后的故事后,又带了几分“拍摄的艺术”。
对于普通人来说,“电影特效模式”可能没有那么深的含义,但它更像是瑞士***里的红酒开瓶器。它可能不是最完美、最省力的工具,但却是紧急情况下的有力工具。
电影向我们展示了人类的情感和故事,如果你使用正确的表达语言,它们就会被传达。现在,我们已经努力了很久,让你的人生故事在你的定位器上被记录和演绎,我已经迫不及待地想看“电影效果模式”下人们写的故事了。
本文来自离开我后记得微笑投稿,不代表舒华文档立场,如若转载,请注明出处:https://www.chinashuhua.cn/24/486962.html