iPhoneX|明明都是iPhone,为什么差距这么大呢?( 二 )



最后再拍一张长曝光照片获取暗部细节 , 然后AI筛选出这9张照片各自效果好的部分合成一张 , 最终获得一张极高细节的照片 。



一句话概括:将9张照片的细节全部合到一起 。

听起来好像很牛X , 但细节多了之后 , 反倒是有点本末倒置了 。


像刚才那树叶 , 就是细节过度合成了鳞甲的质感 , 完全失去了原本的模样 。

不仅如此 , 这套算法更严重的是 , 连毛茸茸的猫咪都能拍成“小刺猬” , 让人看了一点都不想Rua 。


(左:iPhone X | 右:iPhone 12)

可别说机哥这是对果子有意见 , 对「深度融合」有意见的可不止我一个 。

前段时间 , 有媒体发表了一篇名为《iPhone相机变得太聪明了?》的文章 。


苹果最新的手机使用了机器学习 , 使得每张照片看起来都像是专业拍摄的 。 但这不代表是好照片 。
文章主人公从iPhone X换成iPhone 12 Pro之后 , 她发现新手机不论拍什么都特别亮 , 而且饱和度也不太对劲 。

回想起之前苹果发布会上的各种宣发 , 实际体验后 , 有种...“上当”的感jio 。


我感觉有点被骗了 , 每张图片看起来都太亮了 , 暖色饱和度都(拍)成了灰色和黄色 。
最后她还补了一刀:它不太聪明的亚子 。


让它聪明亿点点吧 , 认真的 。
而专业摄影师的点评就更加一针见血 , 直接道出为什么新iPhone拍的东西很“诡异” 。

因为算法的介入 , 使相机能拍到很多人眼看不到的细节 , 也就是“太真实” 。

这其实是件好事 , 但细节多过头 , 就会让人觉得“太不真实” 。


它(算法)把高光和阴影里的细节都带回来了 , 这些细节往往比你在现实中看到的要多得多 , 这看起来过于真实 。
这点机哥就深有感触 , 比如我就想拍逆光效果 , 为的就是暗部什么都不要的视觉冲击 。

但算法愣是让乌漆嘛黑的部分都呈现出了细节 , 还贼特么亮堂 。


(现场的效果 VS 拍出的效果)

喂喂喂!这根本就不是我想要的效果好吗 。



但对很多小白来说 , 他们并不关心厂家的算法和调教 , 也不太会追究原因 。 他们是结果论 , 只关心拍得好不好看 。

毕竟咱买冰箱 , 在乎的是它的制冷 , 而不是怎么实现制冷 。

小某书上 , 这段时间就掀起了一波iPhone XS的复古潮流 。



不少博主都表示:iPhone XS系列拍照YYDS 。 比新款的iPhone都要拍的好看 。

还有的博主直接Po出了新旧几代的自拍对比 。



乍一眼看过去 , 好像XS拍得确实更好看 。

以至于有很多网友 , 甚至在如今的2022年 , 还花两三千块钱买iPhone XS来自拍 。 手持的新iPhone硬生生成了“陪衬” 。



所以 , 道理我都懂 , 为什么偏偏是XS?

这是因为啊 , 从它的下一代iPhone 11开始 , 苹果正式踏上了计算摄影的征程 。

iPhone XS是最后一代 , 没有「深度融合」的iPhone 。 也就是很多人公认的:最后一代拍照有果味的iPhone 。



这套算法好不好 , 为什么偏偏是末代旗舰火爆 , 冥冥之中必有定数 , 大家懂得都懂了吧 。



不过机哥倒不建议大家现在还去买XS , 毕竟一款4年前的手机 , 不论是续航还是芯片性能 , 其实已然没有了优势 。

相关经验推荐