Pixel 8 Pro的视频通过视频增强功能变得更加明亮——只要正确使用

来源:网络
时间:2023-12-23 21:37:18

Pixel 8 Pro的视频通过视频增强功能变得更加明亮——只要正确使用 (图1)


当谷歌在Pixel 3上推出夜视功能时,它是一个启示。

 

就好像有人真的在你的低光照片中打开了灯。此前不可能的拍摄变得可能——无需三脚架或像鹿在车灯下那样的闪光灯。

 

五年后,暗光环境下拍照已成为老生常谈——几乎每款手机都配备了某种夜间模式,无论价格如何。然而,视频则是另一回事。静态照片的夜间模式通过捕捉多帧来创建一个更亮的图像,而这种功能的机制无法简单复制粘贴到本质上已经是一系列图像的视频上。答案,似乎是近来常见的,就是借助AI

 

今年秋天,Pixel 8 Pro发布时,谷歌宣布了一项名为视频增强的夜视功能,该功能将在未来的软件更新中推出。它使用AI处理你的视频——带出更多细节并增强颜色,这对于低光环境下的视频特别有帮助。只有一个问题:这种处理发生在谷歌的服务器上的云端,而不是在你的手机上。

 

正如承诺的那样,视频增强功能在几周前随12月的Pixel更新开始出现在设备上,包括我的Pixel 8 Pro评测单元。效果很好!但它还不是原始夜视功能那样的里程碑时刻。这既说明了夜视功能首次亮相时的印象深刻,也说明了视频对智能手机摄像系统提出的特殊挑战。

 

视频增强的工作原理是这样的:首先,至关重要的是,你需要拥有Pixel 8 Pro,而不是普通的Pixel 8——谷歌还没有回应我关于为什么会这样的问题。当你想使用它时,你可以在相机设置中打开它,然后开始录制视频。一旦完成,视频需要备份到你的谷歌照片账户,无论是自动还是手动。然后你等待。再等待。在某些情况下,继续等待——视频增强可以处理长达十分钟的视频,但即使只有几分钟的片段也可能需要几小时来处理。

 

根据你录制的视频类型,这种等待可能值得或可能不值得。谷歌的支持文档表示,它旨在让你“在任何光线下都能在Pixel手机上制作更高质量的视频,具有更好的光线、颜色和细节。”但视频增强主要服务的是更好的低光视频——这是产品经理Isaac Reynolds告诉我的。“把它想象成夜视视频,因为对其他算法的所有调整都是为了追求夜视。”

 

所有使我们在良好光线下的视频看起来更好的过程——稳定、色调映射——在你尝试在非常低光的情况下录制视频时就会停止工作。Reynolds解释说,即使是在低光视频中得到的模糊也是不同的。“OIS[光学图像稳定]可以稳定一个帧,但只能是一定长度的。”低光视频需要更长的帧,这对稳定来说是一个巨大的挑战。“当你在低光环境中开始行走,帧那么长时,你会得到一种特殊的帧内模糊,这只是OIS可以补偿的剩余部分。”换句话说,这非常复杂。

 

这有助于解释我在自己的视频增强片段中看到的情况。在良好的光线下,我看不到太大的差异。一些颜色稍微鲜艳一些,但我没有看到任何东西,这会促使我在充足的光线下经常使用它。在极低的光线下,视频增强可以恢复在标准视频片段中完全丢失的一些颜色和细节。但它远不像同样条件下普通照片和夜视照片之间的差异那么戏剧性。

 

不过,在这两个极端之间确实有一个真正的甜蜜点,我可以看到视频增强真正派上用场。在一个片段中,我在黄昏时分沿着小路走进一个布满黑暗的凉亭,那里悬挂着神户钟,视频增强后的阴影细节和稳定性有明显改善。我越是在普通、中低光室内照明下使用视频增强,就越能看到它的用处。你开始看到标准视频在这些条件下看起来多么苍白——就像我儿子在餐厅地板上玩卡车一样。打开视频增强恢复了我忘记自己失去的一些活力。

 

视频增强仅限于Pixel 8 Pro的主后置摄像头,并且以4K(默认)或1080p 30fps录制。使用视频增强会产生两个剪辑——一个初始的“预览”文件,尚未增强,可以立即分享,最终是第二个“增强”文件。然而在幕后,还有更多的事情发生。

 

Reynolds向我解释说,视频增强使用了一个完全不同的处理管道,保留了更多的拍摄图像数据,这些数据在录制标准视频文件时通常会被丢弃——有点像RAWJPEG文件之间的关系。一个临时文件将此信息保存在你的设备上,直到它被发送到云端;之后,它将被删除。这是一件好事,因为临时文件可能非常庞大——较长的剪辑可能有几个G的文件。然而,最终的增强视频大小合理得多——我录制的三分钟剪辑是513MB,而临时文件是6GB

 

我对视频增强的最初反应是,它看起来像是一个权宜之计——一个需要云端功能才能正确运行的功能演示,但将来会转移到设备上。高通刚在这个秋天展示了一个类似的设备上版本,那一定是最终目标,对吗?Reynolds表示他不是这么想的。“在云端可以做的事情总是比在手机上可以做的事情更令人印象深刻。”

 

电话可以做的事情和云服务器可以做的事情之间的区别将淡入背景

 

举例来说,他指出目前Pixel手机上运行的是Google HDR Plus模型的多个较小、优化版本。但Google在过去十年为其Pixel手机开发的完整“母版”HDR Plus模型实在太大,无法在任何手机上真实运行。随着时间的推移,手机上的AI能力将会提升,因此,一些过去只能在云端完成的任务可能会转移到我们的设备上。同样,云端可能的功能也会发生变化。雷诺兹将云端视为Tensor能力的“另一个组成部分”。

 

从这个意义上讲,视频增强功能预示着未来——这是一个手机上的AI与云端AI携手合作的未来。越来越多的功能将由设备内外的AI共同处理,而手机能做什么和云服务器能做什么之间的区别将逐渐模糊。这可能不像夜视功能那样令人眼前一亮,但这将是我们思考手机能力方式的重大转变。


相关攻略