苹果、华为、小米拍摄变强悍的秘密,它们全做了这件事
发布时间:2021-12-06 11:06:02 所属栏目:数码 来源:互联网
导读:随着手机拍照的不断进步,计算摄影这个概念,在这两年的发布会和宣传材料里提的越来越多了。 从一开始的拼硬件,到今天的拼算法。手机软件,如何影响了拍照这个物理过程?发布会上吹的计算摄影,又对你的照片做了什么? 其实计算摄影并不神秘。它的终极目标,
随着手机拍照的不断进步,“计算摄影”这个概念,在这两年的发布会和宣传材料里提的越来越多了。 从一开始的“拼硬件”,到今天的“拼算法”。手机软件,如何影响了拍照这个物理过程?发布会上吹的“计算摄影”,又对你的照片做了什么? 其实计算摄影并不神秘。它的终极目标,就是用手机的硬件,去模仿相机的效果。而这种模仿又可以分为两个部分:传感器,和镜头。 咱们先聊传感器。 说到手机上的传感器,大家的第一反应肯定是:小。其实最早的手机问题远远不止是感光面积小,动态范围也菜的不行。亮了不行黑了不行,光比大了也不行。而从不行到行这个支楞起来的过程,离不开一个人。他就是缔造了谷歌相机的男人,Marc Levoy。 其实最早试图解决这个问题的,是苹果。它会一次拍下长、中、短曝光三张不同的照片,再将各自曝光正确的部分合成,这就是HDR拍照。今天看不算什么,可当年iPhone 4凭借这个功能,拍照可以说是大杀四方。 但是HDR合成只能解决大光比的问题,太阳一落山,还是要抓瞎。怎么办?这就轮到Marc Levoy老爷子,和他鼓捣的HDR+算法出场了。 这个解决方案的核心思想跟吃烧烤是一样的,如果一张解决不了,那就多拍几张。HDR+模式下的拍照,实际上是多张短曝光连拍。然后选择一张作为基准,对齐剩余的照片,整合,再做一些白平衡、色调映射、去雾之类的调整,最后输出。 正常来说这个过程在手机上,只能看见进度条。不过你也可以在PS里自己动手。咱们固定好手机,拍两张照片,打开Photoshop,全选-堆栈-自动对齐。来,试试看~ 没错,HDR+某种程度上,其实就是自动化了的PS堆栈。在传感器不变的情况下,它能特别有效的给照片降噪。因为虽然单张照片是有噪声的,但是堆栈的时候,等于是一大堆随机噪声糊在了一起。再一平均,啪,没了。 这就好比在白纸上用笔随机戳黑点,戳得足够密就是均匀的黑色。再平均到每张纸上,就只剩非常淡的灰色。特别是暗光拍照,尤其明显。 其实本来想用另一个比喻的:噪点就好比 ,堆栈就好比骑在扫地机器人身上拉 ,结果被扫地机器人匀了。但是说出来又感觉有点,所以这段还是掐了憋播…… 多帧堆栈的进化版,就是前两年大家卷到起飞的超级夜景。还是以谷歌为例,它的NightSight算法,在手持的情况下是连拍15张,曝光最长15分之一秒的照片。如果有三脚架,那么最高是给到6张1秒钟的长曝光。然后一样是对齐、合成、后处理,最后吐给你一张马上就可以发朋友圈打卡的超级夜景。 HDR+刚推出的时候,只是一个可选的特殊模式。到今天,苹果的Deep Fusion,华为的XD Fusion这些带多帧合成的拍照算法,已经是默认标配了。 当然了,“合成”听着多少有那么点造假的意思。现在大家都管这个叫:“融合”。 而且顺带一提,Pixel系列不光是最早采用计算摄影技术的手机,2代开始引入的Pixel Visual Core,也是手机上最早的独立影像芯片。再看看今年的澎湃C1和vivo V1,说Pixel引领了安卓手机的计算摄影技术,应该是绝不夸张的。 所以,堆栈就是计算摄影的真相吗? 是……也不是。至少不完全是。 首先是,还有其他提高画质的手段。 堆栈虽好,也不是万能灵药。因为快速移动的物体很容易被拍糊,拍风景可能比较灵,猫就不一定了。而且堆栈的降噪buff对非随机噪声来说是无效的。即便不考虑这些,成片每提升一档信噪比,需要的堆栈张数也将是指数级的增长。 所以更靠谱也更流行的方案还是软硬件结合。比如小米10至尊版搭载的OV48C传感器。它的单帧逐行HDR技术,不光大幅缩短了长短曝光帧之间的时间差,还可以直接在硬件上做完HDR合成,减少了照片鬼影和等待时间。 华为前几代采用的RYYB传感器,则是通过前期更大的传感器和更多的进光量,直接吃到更多信息,大大减轻了堆栈压力。 还有一些机器选择用多摄像头解决问题,比如S21 Ultra和荣耀Magic 3 Pro的多摄融合。这种技术就如同古画装裱里的挖补手法,会把主摄的高质量图像,融合到其它镜头的照片里。 再就是华为在P50上文艺复兴的,黑白+彩色方案。黑白镜头的细节比彩色镜头更好,而视网膜上视锥细胞和视杆细胞的比例,又决定了人眼恰好是对亮度比色度更敏感。所以这种照片的细节质量,是黑白镜头决定的。就算彩色照片糊一点也没关系。 其实为了给你省流量,你正在看的这个视频,也用了同样的方法压缩体积。这被称为色度抽样,怎么样,是不是根本没发现? 另一股不能忽视的势力是AI。比如18年这篇英特尔实验室和UIUC的论文,就直接把同一个场景下的高糊照片和长曝光照片,一起喂给了神经网络算法。然后就可以用一张黢黑黢黑的照片,丢给AI去处理,脑补出它长曝光的样子。 这么先进的东西,本来应该给大家演示一下的。但是呢……AI炼丹需要显卡,而我们那张樱瞳花嫁已经还了。 诶,也不知道我老婆现在在哪个矿场上干活,散热好不好显存烫不烫 其实利用AI增强图像质量的地方还有很多。比如Pixel就用到了机器学习,来解决自动光和夜景模式下的白平衡问题。至于大名鼎鼎的月亮模式,那就介入的更深一层。 ![]() (编辑:随州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
站长推荐
热点阅读