麻省理工学院(MIT)研究人员利用先进AI人工智能重写人类最大成就之一:如果阿波罗11号登月失败了怎么办?

MIT先进虚拟技术中心(Center for Advanced Virtuality)团队使用美国太空总局(NASA)保存旧图片,制作了名为《一旦发生登月灾难》(In Event of Moon Disaster)短片,展示任务以悲剧告终的另类大事年表。整支短片的最高潮就是深度造假(Deepfake)尼克森(Richard Nixon,因水门案而下台的美国前总统)宣读备用演讲稿(除正式讲稿外,另有因应任务失败的备用稿)的令人毛骨悚然却让人信服的画面,背景还有那个时代映像管(CRT)电视特有的模糊图片和尖锐嘶嘶声。
MIT团队花3个月制作,但未来Deepfake技术会变得十分容易
Deepfake是指使用AI模型模拟人脸与声音的可操控逼真视频,可逼真假造一个人说了从未说过的话。该短片是某交互网站20日的重头戏,当天是美国登月51周年纪念日,包括此项目的幕后花絮,以及讨探有关Deepfake技术实例和后果的文章。早在去年秋天,该短片便在电影节和某次巡回展览播放过,但20日发布的数字版是整支视频在网络首次公开。
制片人先拍摄一位演员朗读应急演讲的画面,然后再将他的脸部动作和尼克森辞职时旧视频比对,选定该图片片段为目标,因为视频有他们想要的“适当严肃且忧郁的音调”。通过独立AI模型,将演员的声音转换成尼克森的声音。AI模型训练了数百个来自尼克森总统在越南演讲的样本。
Deepfake的影响着实令人担忧,但要制作出令人信服的成品并不容易。MIT团队花了3个月制作此短片。尽管如此,这种技术仍不断进步,随着时间推移,Deepfake技术只会越来越容易完成。
“通过这次Deepfake假造视频,我们希望展示技术已多么先进,并协助众人防范更复杂的Deepfake技术,因无疑会在不久的未来大行其道。”项目官网表示:“如果体验过我们视频的人,后来回忆起可信度,并更谨慎小心看待Facebook不时弹出的视频,我们就成功了。”
MIT团队与《科学美国人》(Scientific American)期刊共同制作了半小时记录片,也在20日发布。如果你想测试一下自己发现Deepfake的能力,MIT媒体实验室(MIT Media Lab)今年稍早也公开了名为“检测赝品”(Detect Fakes)项目,有兴趣的用户不妨前往浏览。
(首图来源:视频截屏)