近日启动的“经典香港电影修复计划”,计划将100部香港老电影修复至4K版本。
电影修复流程繁杂琐碎。过去,一位经验丰富的修复师需要1个月的时间,才可以修复完成一部影片,而这次修复百部香港老片将使用深度学习等人工智能技术,这将极大地提升电影修复效率,同时进一步优化影片的画质,为观众带来超高清的观影沉浸感。
(资料图片仅供参考)
传统的修复方法更多关注光影、色彩、美学等,而人工智能修复,可以从清晰度、流畅度等方面提升老片的画面质量。那么,人工智能是如何介入电影修复的?
由于拍摄设备、存储方式等方面的限制,老电影往往带有严重的胶片噪声且分辨率较低。此外,由于拍摄年代和拍摄方式等的不同,老电影的画面质量也参差不齐,很多画面模糊不清。
提升影片的清晰度,须修复模糊的画面。去模糊的难点在于,模糊的类型多种多样。在拍摄、储存、拷贝翻印、胶片数字化以及压制导出的过程中,都可能产生模糊损伤,这导致模糊问题成因复杂,修复人员通常难以获得精准的“模糊核”。
利用人工智能技术,可以从低质数据中抽取不同程度的模糊视频,利用相关统计方法进行真实的“模糊核”估计,并通过主观验证进一步筛选“模糊核”的类型。同时,在自建的高清影视数据集上,生成“模糊—清晰”匹配数据对来训练机器学习从低质到高清的潜在的映射关系。这样就能快速分辨出不同影片、不同画面模糊的原因,进而提升修复效率。
在老电影修复中,电影中的人像需要重点关注和优化。利用人工智能技术,使用基于生成式的人像修复模块,在保持人像真实特征的前提下,可以进行高清五官重建。对低分辨率、多次压缩损伤以及拍摄环境(如暗场景和拍摄过程抖动)等造成的模糊、失焦、噪声、马赛克等画质损伤,都能有效解决。
在这次100部经典港片的修复中,人工智能还为我们提供了老旧人像修复和人像超清化等不同的人像解决方案。对于低质量的人像,我们优化了人像模型在时域上的清晰度和稳定性,对不同大小的人脸(近景/中景/远景)、不同姿态角度的人脸(侧脸/俯视/仰视)、不同遮挡程度的人脸都有较好的修复增强效果。对于一些中高质量的人像,我们使用人像超清模块,优化五官清晰度,最大限度还原睫毛、眉毛、发丝和肤质等脸部细节,修复结果更有质感。
很多老电影由于胶片保存不当出现褪色情况,画面存在色偏。为解决这一问题,需要对其进行色彩校正,还原符合电影美学风格的色彩。借助人工智能技术,修复人员可以设计出符合电影美学标准的色彩校正方案。具体做法是,对影片内容进行场景分割,使用深度学习方案逐帧学习其色彩校正矩阵;针对帧间一致性问题,则按场景计算出色彩校正矩阵的均值;对同一场景,使用同一套色彩校正矩阵进行处理,从而得到稳定的校正结果。
利用人工智能技术还能提升老电影的流畅度。比如,一些武打片中,有很多人物快速运动的场景。当画面帧与帧间运动较大,超过一定范围时,光流就会估计不准确,容易产生拖影。利用智能插帧算法,通过对前后帧的内容进行光流估计,并根据光流信息将前后帧像素都转换到中间帧,然后进行整合,生成中间帧,提升视频帧率,这样就可以减少观众观看时的卡顿感。
一些老电影的胶片,由于保存不当,容易出现脏点、污渍和霉斑,呈现在画面上就是大块不规则形状的阴影,既破坏了画面的完整性,也会影响观众的观影体验。对于这些瑕疵,可以首先用去噪点和去划痕等算法批量处理,同时辅以人工二次校验,对误伤画面的部分进行优化,这既提高了修复处理的速度,同时也保证了修复的精准性。
此外,受限于拍摄时的设备和技术,早期的香港武打片会有不少穿帮镜头,如画面出现威亚线。以往这种情况,只能依赖手工逐帧消除,而人工智能算法可以自动识别到威亚的位置并进行擦除。
值得一提的是,在这次100部港片修复项目中,我们首次使用了AIGC(生成式人工智能)视觉大模型。在更广阔的数据规模、更庞大的模型参数、更丰富的算力的加持下,大模型显示出远超以往算法的生成能力,生成内容的纹理细节更逼真、效果更自然。
针对老片修复的具体场景,我们还对AIGC视觉大模型进行了生成质量、视频任务和推理效率方面的算法优化,有效提升了修复质量。相信随着大模型技术的持续发展,人工智能将在老电影修复以及经典文化传承方面发挥更大作用。
(作者:赵世杰,系火山引擎多媒体实验室研究员)