老旧的黑白影片,如果变成彩色的,会给人怎样的体验?
5月8日,网友@大谷Spitzer利用AI程序,修复了一部记录百年前北京人生活的影片。
视频来源于人民日报四年前发布的资料影片,由加拿大摄影师在1920-1929年间拍摄。
视频中原本色彩单调、轮廓模糊的人影,经过修复后,变得面目清晰、动作流畅。
加上后期逼真的音效,直接把观众带回了1920年的老北京。
5月9日,在接受@中新视频记者采访时,制作者大谷讲述了修复的全过程。
今年28岁的大谷是一名独立的游戏制作人,平时喜欢研究一些新开发的AI程序,并尝试将这些新程序应用在游戏设计中。
偶然间,大谷看到了这部百年前的影片,萌生出修复的想法。
作为老北京人,我也是很好奇100年前,咱们北京是什么样的,刚好我也了解到有这种复原的技术,也想试一下。这里面一共用了三个AI......其中第一个是负责做补帧的(DAIN),第二个是做分辨率扩增(ESRGAN)的,第三个是上色(DeOldify)的,这几种分工综合到一起来使用,中间还用了一些小的免费的插件。
对于AI修复和人工修复的不同之处,大谷解释说,其实背后有着同样的工作逻辑,而AI修复的优点在于速度快。
传统的就是我们说的修复视频,是手绘一帧一帧,由艺术家们把这些黑白视频重新上色,AI人工智能做的是同样的一个步骤,只不过它的运算效率更快,它的积累相对也更快一些,因为都是计算机嘛,它只要去看这些资料,不断地学习,还是比人要快很多的。
大谷也表示,目前人工智能所处的阶段还比较初级,后续还需要学习才能变得更成熟,比如视频中的颜色就是计算推断出的结果,现在还不能做到完全精确地符合事实。
你们看到的那个影片颜色其实(是)比较淡的,而且并没有历史很准确,就是历史上是不是这个人穿的就是这个颜色,我觉得不然,它只是一个凭自己的训练,它感觉这个人可能是这个颜色,那个人穿衣服有可能是那个颜色,它没法做到完全历史精确。但如果我们是由人类的艺术家来做的话,他肯定是了解中国古代历史,做得应该会更准确,我觉得这是人工智能现在还不足的地方,是要通过不断地训练来加强的。
视频火了之后,大谷还在微博对“晚清”的描述作了勘误:
截几条评论,大多都在感叹历史感和“现在真好”