新闻 > 科教 > 正文

谷歌最新视频抠图术:影子烟雾都能抠 还开源

如何更顺滑的添加水印?谷歌的这项新技术,让文本简直就像贴在地面上,哪怕是在沙尘横飞的场景里。

方法也很简单。

只需输入一段视频,和指定对象的粗略蒙版。

那这个对象的所有相关场景元素,都能解锁!

不管是任意对象和主体,不论怎么移动,所有元素都能抠出来。

这就是谷歌最新的视频分层技术——omnimatte,入选 CVPR2021 Oral。

目前这项技术已开源。

如何实现

计算机视觉在分割图像或视频中的对象方面越来越有效,然而与对象相关的场景效果。

比如阴影、反射、产生的烟雾等场景效果常常被忽略。

而识别这些场景效果,对提高 AI的视觉理解很重要,那谷歌这项新技术又是如何实现的呢?

简单来说,用分层神经网络渲染方法自监督训练 CNN,来将主体与背景图像分割开来。

由于 CNN的特有结构,会有倾向性地学习图像效果之间的相关性,且相关性却强,CNN越容易学习。

输入一段有移动物体的视频,以及一个或者多个标记主体的粗略分割蒙版。

首先,使用现成的分割网络比如 Mask RCNN,来讲这些主体分成多个遮罩层和背景噪声图层,并按照某种规则进行排序。

比如,在一个骑手、一辆自行车以及几个路人的场景中,就会把骑手和自行车归入一个层,把人群归入第二层。

omnimatte模型是一个二维 UNet,逐帧处理视频。每一帧都用现成的技术来计算物体掩码,来标记运动中的主体,并寻找和关联蒙版中未捕捉到的效果,比如阴影、反射或者烟雾,重建输入帧。

为了保证其他静止的背景元素不被捕获,研究人员引入了稀疏损失。

此外,还计算了视频中每一帧和连续帧之间的密集光流场,为网络提供与该层对象相关的流信息。

最终生成 Alpha图像(不透明度图)和 RGBA彩色图像,尤其 RGBA图像,简直可以说是视频/图像剪辑法宝!

目前这一技术已经开源,配置环境如下:

Linux

Python3.6+

英伟达 GPU+ CUDA CuDNN

有什么用途

技术效果如此,那有什么样的用途呢?

首先就可以复制或者删除图像。

还有顺滑地切换背景。

责任编辑: 李韵  来源:量子位 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2021/0904/1642363.html