苹果高管周二在公司的主题演讲中展示了iPhone 11和iPhone 11 Pro系列的新摄影功能。
新的iPhone 11 Pro和Pro Max现在拥有三个又大又厚的摄像头。
苹果全球营销高级副总裁Phil Schiller周二在主题演讲中宣布推出新款智能手机,他们认为增加新镜头可以增加使用智能手机拍摄图像和视频时的创造力。这三款相机分别是13毫米超广角镜头,26毫米广角镜头和52毫米长焦镜头。
Schiller指出,在最宽的13毫米相机镜头和最长的52毫米镜头之间,允许4倍光学“变焦”。(从技术上讲,iPhone在镜头之间切换,而不是实际放大或缩小镜头。)
Apple还在其双摄像头iPhone 11版本中添加了新的软件功能,包括夜间模式,它可以在低光照下拍摄时可以提高图像质量。今年晚些时候将会推出一款名为Deep Fusion的软件更新,让iPhone 11专业版能够将多张图像拼接在一起,制作出更高分辨率的最终照片。
席勒描述了这款相机在按下相机按钮时拍下8张快速照片,然后再拍一张较长的照片,作为对2400万像素进行分类并最终合成照片的参考。
- 虽然人们对这些功能的工作原理知之甚少,但苹果申请的专利让我们得以一窥该公司的计划。
11 Pro还允许通过名为Filmic Pro的应用程序同时拍摄多个视频,每个视频通过不同的镜头焦距并包括前置摄像头。每个视频都可以通过不同的镜头焦距拍摄,包括前置摄像头。该功能的一个应用例子是将iPhone置于两个人之间,通过前后摄像头记录双方的对话。
2016年,苹果公司开始在iPhone 7 Plus手机后置更多摄像头。双摄像头最初启用的是肖像模式,它使用两个摄像头来估计拍摄对象的距离,然后模糊背景。这种效果是为了模拟由模拟相机镜头自然产生的浅景深背后的物理现象。
虽然人们对这些功能的工作原理知之甚少,但苹果申请的专利让我们得以一窥该公司的计划。这些文件显示出一种明显的趋势,即操纵多个较小相机的图像。例如,苹果在2015年申请了一项专利,可以用两个摄像头创建深度地图,这可以用于增强现实和肖像模式。在2016年的一项专利申请中,两个摄像头模块也可以用于图像稳定,其中,第二张照片可以显示自第一张照片拍摄以来相机的移动情况,并用于纠正图像缺陷。苹果在专利文件中指出,这可以通过应用程序中的一系列摄像头轻松实现。
添加第三个摄像头可以为这些追求提供更多的数据,不管最终的结果是不那么摇晃的视频还是更好的增强现实体验。然而,苹果的iPhone XR是个明显的例外。它可以拍摄人像模式的照片,但只能拍摄人的照片,而不能像双摄像头iphone那样拍摄物体或动物的照片。
其他公司也采用了不同的方法来实现多摄像头系统。诺基亚9 PureView有五个摄像头模块,但其中三个只能拍摄黑白照片。为诺基亚(Nokia)生产相机阵列技术的Light公司声称,黑白相机能够提供有价值的对比度信息,甚至对于全彩拍摄的图像,黑白相机的摄光量几乎是彩色相机的三倍。
在Light自己的1,950美元的L16相机中,该公司使用了16个较小的相机,试图模仿具有更大、更高质量图像传感器的相机的图像质量。他们的想法是,可以以更低的成本生产出更高质量的图像,因为为智能手机生产的大规模相机模块已经变得更便宜了。(一项测试显示,诺基亚PureView 9搭载了更新的相机模块,性能优于老款L16相机。)
这项技术很可能与苹果在新款iPhone 11 pro上的尝试最为相似——从不同的相机拍摄多张照片,然后将它们拼接在一起,形成一张高质量的照片。
- 添加第三个摄像头可以为这些追求提供更多的数据,不管最终的结果是不那么摇晃的视频还是更好的增强现实体验。
制造Pixel手机的谷歌传统上以不同的方式处理计算机摄影。Google并没有使用多个镜头来获取更多数据,而是依赖于仅通过一个镜头分析和扩充数据。例如,一年多以来,Pixel手机能够以极低的光线拍摄清晰的图像,这种功能称为夜视。其中一张图片是谷歌研究人员在博客上发表的一篇文章中的一个例子,它展示了一张在中央公园拍摄的照片,画面犀利,光线充足,只是在晚上光线不足的时候拍的。
Google方法可以查看9到12个图像,这些图像由Pixel的单个摄像头不断捕获,并使用算法相互对齐,合并和细化这些图像。
但谷歌可能会步苹果(Apple)和诺基亚(Nokia)的后尘。下一款Pixel 4和Pixel 4 XL手机的泄露和恶搞表明,这款即将推出的智能手机将配备两个摄像头——一个标准摄像头和一个长焦镜头,可以让物体在图像中显得更近。
直到今年晚些时候,我们才会真正了解苹果的深度融合技术如何与谷歌的后处理算法相媲美。但在一个手机的大部分功能或多或少都差不多的世界里——除非它们真的很怪异或很环保——至少大品牌之间存在着可行的竞争,谁的相机最好。
via.Dave Gershgorn