苹果首次在iPhone 7 Plus上引入双摄,并带来了名为「人像模式」的新功能:通过立体匹配算法,使用人像模式时,两颗摄像头会同时记录画面,然后通过匹配不同画面的像素,得出场景特征的「深度信息」,从而拍出自带景深的照片。

到了iPhone 8 Plus、iPhone X以上机型,苹果还带来了「人像光效」,在使用人像模式(或者后期编辑)时生成各种影棚级的打光效果,例如「摄影室灯光」可提亮面部特征、「轮廓光」用于实现更加戏剧化的定向照明、「舞台光」可让主体在聚光灯下突显出来、「单色舞台」可提供经典的黑白舞台灯光。

研究人员开发出可在单摄上“重建”人像光效的打光功能-玩懂手机网 - 玩懂手机第一手的手机资讯网(www.wdshouji.com)

虽然苹果将这两项功能带到了iPhone XR上,但因为只有单摄,iPhone XR无法像双摄手机一样详细记录画面的深度信息,所以人像模式和人像光效都只能实现部分功能。而如果你用的是更早期的单摄iPhone,那么这两项功能同样与你无缘。

但最近来自加利福尼亚大学圣地亚哥分校的研究人员找到了一种能够「重建」人像光效的方法,甚至在只有单颗摄像头的手机上也能获得不错的效果。

研究人员介绍称这一功能通过AI判断照片中的人物信息,并在神经网络的帮助下重建脸部的光照,并且允许使用者在3D空间中将光源打在任何地方,从而模拟出更多的打光效果,同时能够选择性地改变背景与之匹配。相比之下,苹果只提供至多六种打光效果。

研究人员开发出可在单摄上“重建”人像光效的打光功能-玩懂手机网 - 玩懂手机第一手的手机资讯网(www.wdshouji.com)

不过这一技术目前还比较粗糙,离商用可能还有一段距离。

虽然研究人员表示生成一张640×640像素的照片仅需要160毫秒,但要处理目前智能手机较为普遍的1200万像素的照片时,时间会长达4.7秒。此外,训练神经网络的样本量也可能不足,毕竟这个demo是由18人组成的小样本训练而来的。如果真的走到了正式推出这一步的话,必定需要考虑到不同人种、肤色、性别的影响。