俗话说,有图有真相,有片有真相,意思是文本描述不够真实,但配上图片或视频就能提高可信度。虽然过去已经有不少修图、电影修片专家能合成逼真的图片,但制作门槛还是有,只是,随着深度学习(Deep Learning)技术与之结合发展,将为全球社会带来新兴风险。

基本上,深度学习是有助于实现机器学习的一种技术,能为许多科技面向带来好处,若用在图片合成领域时,能协助电影、游戏领域制作,处理上可以更省时,但在现实应用场景中,与假消息结合之后,却也开始让图片伪造门槛降低,不实内容图片制作变得泛滥,于是,深度伪造(Deepfake)一词也油然而生。
AI让视频换脸应用发展快速
关于Deepfake,根据维基百科说明,是英文“Deep Learning”和“Fake”所混合而成的单词,也就是将“深度学习”加上“伪造”,专指基于人工智能的人体图像合成技术的应用。
而近年来,已经出现了不少相关事件,让大众认识到这类AI变换人脸的技术发展,并开始注意到未来应用于假消息时的可能影响。
例如,2017年俄罗斯开发商打造的FaceApp,就利用了AI技术,让用户能够针对人脸来增加笑容,变年轻或变老,甚至变换性别;到了2019年,由中国软件开发商打造的ZAO,也利用AI技术,让用户可将自己的人脸直接套用到电影角色。显然,这些App使用AI技术打造了有趣的变脸应用,但也额外衍生用户隐私的问题。
此外,市面上,这类Deepfake的工具已经不少,还包括:DeepFaceLab、Fakeswap、Openfaceswap、Myfakeapp等,其中,有一些是开放源码软件。
用AI将知名女星换脸到成人视频
令人担忧的是,这样的技术若遭到大量滥用,可能为全球社会带来极大的负面影响。举例来说,在2017年12月,美国知名网络论坛Reddit有网友发布了一则文章及视频连接,内容是以AI技术来假造知名女星AV成人视频,而该片的女主角,竟是饰演电影《神奇女侠》的女主角Gal Gadot。当然,这视频并非Gal Gadot下海主演,而是利用AI技术产生而成,将知名女星的脸直接替换到某支A片,且真实程度已经到了让人感到讶异的地步。
显然,这种使用AI的移花接木手法,在吸引广大关注的同时,也引起一些人的反思,像是可能用于蓄意破坏他人名声,或是恶搞,而且,未来人们也可能更难分辨其真伪。而且,在操作手法上,Deepfake除了能假造一个人没做过的事,也还能够反向操作,像是假造一个人没做过的好事。
有视频将不再有真相?
另一起事件,是在2018年4月有海外网络媒体Buzzfeed制作了AI假视频,目的是呼吁大众要谨慎判断网络上的消息。他们发布了一则以AI技术假造的演讲视频,其中是以AI技术来改变前美国总统奥巴马的致词内容,其中大部分都是奥巴马对着镜头说话的原始视频,但有一句话居然变成“川普总统完全就是个笨蛋!”当然,这句话也不是奥巴马所说,而是利用AI技术改变嘴型与声音而成,若观众不仔细观察,很难发现异常。
在这样的Deepfake场景中,我们不难想象到更多的可能性,包括假造候选人、官员或专家没说过的话,用于政治、社会与经济等面向的干扰,又或是假造企业高层或同仁的发言,像是发布企业利多或利空的消息,进而在投资市场获利,或是干扰企业运营等。而且,比起文本式的假消息,若是这类造假视频在网络上大量传播,更是让企业及组织辟谣增添难度。
杜绝假消息会变得更困难
综观上述的Deepfake的发展与事件,显然AI的普及不只是助长了图片合成技术的发展,从伪造内容的面向来看,Deepfake也让假消息的威胁更上一层楼。
毕竟,假消息的问题本就是越来越严重,尤其是智能手机普及之后,现在人人都能够上网,而且是无时无刻,这也包括了原本对网络不熟的人们,有些人经历即时通信与社群平台的时间较短,可能更容易受到假消息的影响与煽动。再加上我们身处于信息量爆炸的时代,如今又有Deepfake出现,假消息的问题只会变得更严重。
譬如说,多数人很可能因为只看标题,加上又有视频证实,看个几秒后就快速分享,而在假造视频泛滥之下,相对地,真实的视频也会因为立场不同而被说是假造的。至于整个社会环境,还将可能产生更多的对诉讼或司法程序,造成重大影响。
事实上,图片类的信息早已有人为操弄的空间,像是从单一角度来拍摄视频,让观众误会是特定状况,但从另个角度看并非如此,或是可以截取部分片段来误导。如今用AI快速产生逼真的造假视频,将让问题变得更泛滥。
AI身份冒用让诈骗手法翻新
Deepfake的影响不仅止于此,还有一个不能忽略的面向,就是AI身份冒用的问题,可能让网络犯罪更难防范。举例来说,原本锁定企业的商业电子邮件诈骗(BEC),也可能在Deepfake技术加持下,让身份冒用攻击的渠道从电子邮件延伸至视频与电话。
简单来说,BEC诈骗是网络犯罪组织策划的复杂骗局,对方会从许多方面取得企业与合作厂商的交易汇款消息,并以篡改或假冒电子邮件等方式,像是伺机假冒高端主管,或往来供应商的来信,通知要求更改汇款账号,导致未发现出异常的企业财务主管或老板上当。
在今年2月FBI发布的2019年度网络犯罪报告中,更是指出BEC诈骗这类犯罪所造成的损失,已高达17亿美元,带来的危害持续扩大。台湾近年也有不少企业受害,向警方报案处理。
而这样的身份冒用攻击,在Deepfake技术发展之下,也有了新的威胁面向。例如,在2019年下半,有一家英国能源公司的首席执行官,就因为误以为接到德国总部首席执行官的来电,进而听从对方指示汇钱,因此被讹诈了22万欧元。其实,这并非真正德国总部首席执行官的来电,是黑客集团以Deepfake技术伪装成老板声音,所下的命令。
如何因应成各界关心焦点
无论如何,很多人都担心AI生成视频的技术,可能会被大量滥用,像是成为操控舆论及名声的新工具。
对此难题,许多科技大厂也正试图号召更多好手,发展可识别恶意恶意伪造视频的侦测模型。例如,在2019年9月,微软和脸书发起了竞赛,名为Deepfake Detection Challenge,就是希望集众人之力,找出更好的侦测方式。而在2020年6月,全球2千位AI专家参赛,阵容相当庞大,但从公布的比赛结果来看,识别假造视频成效最高只能认出8成,而且,参赛模型无法准确判读未知资料,而这也显示现有技术识别假造视频仍有困难。
此外,面对AI、Deepfake用于诈骗的威胁,相关做法的发展状态,也将成为企业与人们关心的新课题。例如,通信平台能否提供更精准的过滤技术,以及用户应从不同渠道来进行二次确认,并且创建多个审核的程序。
不论如何,随技术演进,Deepfake产生的图片将让人更无从判断真假,制作门槛也只会越来越低,全球社会都必须积极应战。

随着Deep learning技术在图片合成领域的发展,在2017年,就有网友以AI将知名女星的脸替换到某个A片,而引起广大注意。