Udacity全新AI系统!只要提供音频,就能自动生成超拟真的教课视频

线上课程已经成为了终生学习者们不可或缺的学习资源,而要完成一份高质量的视频,需要耗费不少人力和资源。尤其是在包含视频处理的时候,专业的讲座视频片段处理需要的不只是工作室和设备,更重要的是转化、编辑、上传的每一节课程的原始视频素材。

最近,为了解决这一问题,Udacity 的研究团队就尝试将视频生产这一过程自动化。他们研究了一套AI 系统,希望将音频直接转化为讲座视频。

只要传个语音就好,AI会自动生成图片

MOOC 平台上的内容生产可以是名利双收,但是这些内容生产工作往往耗费大量时间。这就是为什么Udacity 的研究开发人员采用机器学习去自动将语音旁白生成讲座视频。这一研究被发布在一篇名为 LumièreNet: Lecture Video Synthesis from Audio 的论文中。

在发布的论文中他们提到,通过直接定位语音文件和对应视角,机器学习框架LumièreNet可以合成任何长度的视频。

“在现行的视频制作中,AI 的参与或者半参与都能大规模实现视频生产的自动化,这将为灵活的视频内容发展提供巨大价值,因为不需要再去拍摄新的视频”,论文的作者说,“我们推行一种将任意长度的讲座录音去合成讲座视频的新方法……一个简易的、模块化的、完全基于神经网络的系统。通过输入演讲音频,就能得到对应的全身演讲视频,这在之前还没有从深度学习的视角被强调过。”

LumièreNet 的合成主要针对唇部周围的面部表情,然后通过借用其他视频去合成画面的其他部分。但是因为演讲者的情绪不只是通过面部表情传达,所以这个研究模型还有一个姿势判断组件,通过从视频框架训练数据集中提取的数据合成身体特征图像。简要来说,就是通过对身体主要几个点的探测和定位,去创造真人演讲的生动细节。还有一个模块是关于双向循环长短期记忆(BLSTM)神经网络,按正序或倒序处理数据,使得每一次输出都能反映之前的输入和输出——它会利用输入的语音特征和目的去推测它们和视觉元素之间的关系。

机器学习研发新角度,但结果还稍嫌不足

为了测试LumièreNet,研究人员拍摄了一个八小时的室内讲座视频,产出了大概四小时的视频和两段用于训练和验证的旁白。

研究人员报道说,通过训练的AI 系统可以生成逼真的视频片段,有流畅的身体动作和写实的头发,但是这些结果在观察者眼里还是不能骗过观察者的眼睛。

因为这些姿态评估器不能捕捉像眼球运动、嘴唇、头发、衣物之类的细节,被合成的演讲者很少眨眼而且他们嘴巴的运动看起来有些不自然。

可以看到,在这一段合成的视频中人物的动作不够生动,尤其是缺乏眼神上的交流。虽然嘴唇的开合与叙述几乎完美同步,但是缺少更精细的运动细节。仔细看的话,会发现手指之间看起来模糊,更糟糕的是眼睛有的时候会看向不同的方向。

线上学习AI技术的下一步

研究团队猜想,“面部要点”(例如,生动的细节)的添加或许能够使合成变得更好。幸运的是,他们的系统模块设计使得每一个组件都能被独立训练和验证。

“许多未来的方向都是可被探索的”研究人员写道,“即使最开始的时候只是用于支持灵活的视频内容发展。我们知道这项技术存在潜在的滥用行为……但是希望研究结果可以促进深度学习在商业视频生产领域的发展。”