加入收藏 | 设为首页 | 会员中心 | 我要投稿 随州站长网 (https://www.0722zz.cn/)- 数据可视化、数据开发、智能机器人、智能内容、图像分析!
当前位置: 首页 > 综合聚焦 > 移动互联 > 数码 > 正文

苹果、华为、小米拍摄变强悍的秘密,它们全做了这件事

发布时间:2021-12-06 11:06:02 所属栏目:数码 来源:互联网
导读:随着手机拍照的不断进步,计算摄影这个概念,在这两年的发布会和宣传材料里提的越来越多了。 从一开始的拼硬件,到今天的拼算法。手机软件,如何影响了拍照这个物理过程?发布会上吹的计算摄影,又对你的照片做了什么? 其实计算摄影并不神秘。它的终极目标,
随着手机拍照的不断进步,“计算摄影”这个概念,在这两年的发布会和宣传材料里提的越来越多了。
 
 
从一开始的“拼硬件”,到今天的“拼算法”。手机软件,如何影响了拍照这个物理过程?发布会上吹的“计算摄影”,又对你的照片做了什么?
 
 
其实计算摄影并不神秘。它的终极目标,就是用手机的硬件,去模仿相机的效果。而这种模仿又可以分为两个部分:传感器,和镜头。
 
咱们先聊传感器。
 
 
说到手机上的传感器,大家的第一反应肯定是:小。其实最早的手机问题远远不止是感光面积小,动态范围也菜的不行。亮了不行黑了不行,光比大了也不行。而从不行到行这个支楞起来的过程,离不开一个人。他就是缔造了谷歌相机的男人,Marc Levoy。
 
其实最早试图解决这个问题的,是苹果。它会一次拍下长、中、短曝光三张不同的照片,再将各自曝光正确的部分合成,这就是HDR拍照。今天看不算什么,可当年iPhone 4凭借这个功能,拍照可以说是大杀四方。
 
 
但是HDR合成只能解决大光比的问题,太阳一落山,还是要抓瞎。怎么办?这就轮到Marc Levoy老爷子,和他鼓捣的HDR+算法出场了。
 
 
这个解决方案的核心思想跟吃烧烤是一样的,如果一张解决不了,那就多拍几张。HDR+模式下的拍照,实际上是多张短曝光连拍。然后选择一张作为基准,对齐剩余的照片,整合,再做一些白平衡、色调映射、去雾之类的调整,最后输出。
 
 
正常来说这个过程在手机上,只能看见进度条。不过你也可以在PS里自己动手。咱们固定好手机,拍两张照片,打开Photoshop,全选-堆栈-自动对齐。来,试试看~
 
没错,HDR+某种程度上,其实就是自动化了的PS堆栈。在传感器不变的情况下,它能特别有效的给照片降噪。因为虽然单张照片是有噪声的,但是堆栈的时候,等于是一大堆随机噪声糊在了一起。再一平均,啪,没了。
 
 
这就好比在白纸上用笔随机戳黑点,戳得足够密就是均匀的黑色。再平均到每张纸上,就只剩非常淡的灰色。特别是暗光拍照,尤其明显。
 
其实本来想用另一个比喻的:噪点就好比 ,堆栈就好比骑在扫地机器人身上拉 ,结果被扫地机器人匀了。但是说出来又感觉有点,所以这段还是掐了憋播……
 
多帧堆栈的进化版,就是前两年大家卷到起飞的超级夜景。还是以谷歌为例,它的NightSight算法,在手持的情况下是连拍15张,曝光最长15分之一秒的照片。如果有三脚架,那么最高是给到6张1秒钟的长曝光。然后一样是对齐、合成、后处理,最后吐给你一张马上就可以发朋友圈打卡的超级夜景。
 
HDR+刚推出的时候,只是一个可选的特殊模式。到今天,苹果的Deep Fusion,华为的XD Fusion这些带多帧合成的拍照算法,已经是默认标配了。
 
 
当然了,“合成”听着多少有那么点造假的意思。现在大家都管这个叫:“融合”。
 
而且顺带一提,Pixel系列不光是最早采用计算摄影技术的手机,2代开始引入的Pixel Visual Core,也是手机上最早的独立影像芯片。再看看今年的澎湃C1和vivo V1,说Pixel引领了安卓手机的计算摄影技术,应该是绝不夸张的。
 
 
所以,堆栈就是计算摄影的真相吗?
 
是……也不是。至少不完全是。
 
 
首先是,还有其他提高画质的手段。
 
堆栈虽好,也不是万能灵药。因为快速移动的物体很容易被拍糊,拍风景可能比较灵,猫就不一定了。而且堆栈的降噪buff对非随机噪声来说是无效的。即便不考虑这些,成片每提升一档信噪比,需要的堆栈张数也将是指数级的增长。
 
 
所以更靠谱也更流行的方案还是软硬件结合。比如小米10至尊版搭载的OV48C传感器。它的单帧逐行HDR技术,不光大幅缩短了长短曝光帧之间的时间差,还可以直接在硬件上做完HDR合成,减少了照片鬼影和等待时间。
 
 
华为前几代采用的RYYB传感器,则是通过前期更大的传感器和更多的进光量,直接吃到更多信息,大大减轻了堆栈压力。
 
还有一些机器选择用多摄像头解决问题,比如S21 Ultra和荣耀Magic 3 Pro的多摄融合。这种技术就如同古画装裱里的挖补手法,会把主摄的高质量图像,融合到其它镜头的照片里。
 
 
再就是华为在P50上文艺复兴的,黑白+彩色方案。黑白镜头的细节比彩色镜头更好,而视网膜上视锥细胞和视杆细胞的比例,又决定了人眼恰好是对亮度比色度更敏感。所以这种照片的细节质量,是黑白镜头决定的。就算彩色照片糊一点也没关系。
 
 
其实为了给你省流量,你正在看的这个视频,也用了同样的方法压缩体积。这被称为色度抽样,怎么样,是不是根本没发现?
 
 
另一股不能忽视的势力是AI。比如18年这篇英特尔实验室和UIUC的论文,就直接把同一个场景下的高糊照片和长曝光照片,一起喂给了神经网络算法。然后就可以用一张黢黑黢黑的照片,丢给AI去处理,脑补出它长曝光的样子。
 
 
这么先进的东西,本来应该给大家演示一下的。但是呢……AI炼丹需要显卡,而我们那张樱瞳花嫁已经还了。
 
诶,也不知道我老婆现在在哪个矿场上干活,散热好不好显存烫不烫
 
其实利用AI增强图像质量的地方还有很多。比如Pixel就用到了机器学习,来解决自动光和夜景模式下的白平衡问题。至于大名鼎鼎的月亮模式,那就介入的更深一层。


(编辑:随州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读